'AI윤리가 잃어버린 12년'...제대로 된 AI 활용, 윤리적 이슈 공론화 필요해
'AI윤리가 잃어버린 12년'...제대로 된 AI 활용, 윤리적 이슈 공론화 필요해
  • 석대건 기자
  • 승인 2019.05.17 08:18
  • 댓글 0
이 기사를 공유합니다

[디지털투데이 석대건 기자] 마이클 샌델 교수가 쓴 <정의란 무엇인가>는 도덕적 딜레마를 설명하며 ‘브레이크가 고장난 열차’ 이야기를 사례로 든다. 

갑자기 당신이 조종하는 열차의 브레이크가 고장 났다. 기차는 100km/h의 속도로 달리고 있고, 그 선로에는 인부 5명이 일하고 있다. 방향을 바꿀 수 있는 비상 선로에는 행인이 서 있다. 그들 모두 열차가 다가오는지 모른다.

선로를 바꿔 5명을 살리고 1명을 죽이는 선택이 나은가? 죽지 않아도 될 행인의 목숨이 인부 5명 목숨 보다 덜 중요한가? 철학은 이 두 가지 선택지를 인간에게 던지고 그 딜레마 속에서 인간 윤리를 묻는다.

이제 인간은 고민할 필요가 없을지 모른다. AI가 인간의 선택을 대신할 것이기 때문. 하지만 AI에게도 딜레마는 사라지지 않는다. 대신 알고리즘에 의해 결정될 뿐. 이 알고리즘은 ‘AI윤리’라는 대원칙 아래 존재한다. 

AI활용 영역 많아질수록 간결하면서도 고도의 AI윤리 요구

가장 오래되고 기초적인 AI윤리는 SF작가인 아시모프가 제시한 ‘로봇 3원칙(three laws of robotics)’이다. 

로봇 3원칙은 ▲ 1원칙; 로봇은 인간에게 해를 가하거나 해를 당하는 상황에서 무시하면 안 된다. ▲ 2원칙; 로봇은 1원칙에 어긋나지 않는 한, 인간의 명령에 복종해야 한다. ▲ 3원칙; 로봇은 1, 2원칙에 어긋나지 않는 한, 자신을 지켜야 한다로 구성된다.

아시모프는 인간 안전성을 우선해 알고리즘 순서를 설정한 다음, 자율성을 가진 로봇, 즉 AI의 보존성을 유지하게끔 정했다.

그러나 아시모프의 로봇 3원칙도 ‘브레이크가 고장 난 열차’ 딜레마를 해결하지 못하고 에러가 난다. 어느 쪽을 선택하더라도 인간을 해치기 때문. 더구나 점점 AI의 활용 영역이 늘어나고 복잡해지는 사회 속에서 단순한 알고리즘은 충돌을 불러올 뿐이다. 

AI는 인간의 편견 닮지 말아야

이 때문에 세계 각국은 점점 확대되는 AI 활용 영역 만큼이나 윤리 연구에도 심혈을 기울이고 있다. 

미국은 기술 기업을 중심으로 나서 AI윤리 관련 연구를 지속하고 있다. 

지난 2014년, 구글은 AI기업 딥마인드를 인수할 당시 회사 내 ‘윤리 위원회’를 구성키로 했다. 이는 딥마인트 창업자들의 인수 조건의 하나였다. 최근 순다르 피차이는 성명을 통해 ‘구글이 바라보는 AI: 구글의 원칙’를 발표했다.

구글의 AI 원칙은 ‘사회적 유익’ ‘불공정한 편견을 만들거나 강화 반대’ ‘안전성을 우선으로 설계 ·  테스트’ ‘인간에 의한 지시와 통제’ ‘개인정보 보호’ ‘과학적 우수성 유지’ 등을 구성됐다. 

특이한 점은 AI를 활용하지 않을 분야를 지정했다는 것. 구글은 인명에 위해를 가하거나, 국제법을 위반하는 기술에 AI를 제한할 것이라고 밝혔다. 지난 3월에는 자신들의 AI윤리 원칙을 감시할 외부자문위원회도 발족했다.

구글은 AI 원칙을 발표하며, 인명에 위해를 가하거나 국제법을 위반하는 기술에 AI를 사용하지 않는다고 밝혔다. (사진=구글)

사티아 나델라 MS CEO 역시 “AI는 인간의 능력을 증가시켜주기 위한 존재”라며, “AI 기술을 사용하는 이들이 인간의 윤리에 대해 더욱 천착해야 된다”고 강조했다. AI의 윤리를 정하는 데 있어 신중해야 한다는 것. MS 역시 AI 가이드로 발표하며, 프라이버시 · 투명성 · 윤리성 · 공정성을 내세웠다. 

또다른 AI강국 중 하나인 중국은 AI기술과 데이터 안전을 위한 기술 표준을 마련하고, 안전성 테스트를 진행하고 있으며, 인도는 윤리위원회 설립해 AI 윤리 행동강령을 신설해 적용 중이다. 

프랑스도 AI윤리 체계를 마련했다. 프랑스에서 AI는 투명성 아래 편견과 차별을 해소해야 하며, 설명과 이해가 쉬운 인터페이스를 생산돼야 한다. 더불어 AI 엔지니어는 알고리즘 개발에 인간 중심의 윤리적 인식이 반영되도록 교육받는다. 마크롱 프랑스 대통령은 직접 EU의 AI 관련 규정 개발을 주도할 만큼 해당 이슈에 적극적이다. 

국내 기업에서는 카카오가 지난 2018년 초 ‘알고리즘 윤리 헌장’을 발표하며, AI윤리에 대한 논의를 촉구했다. 카카오 알고리즘 헌장의 기본 원칙은 ‘인류의 편익과 행복 추구’하고, ‘의도적인 사회적 차별이 일어나지 않도록 경계한다’고 적고 있다.

12년 전에 초안 만들었지만...심도 있게 논의할 기회 놓쳐

우리 정부도 이미 12년 전에 각국과 여러 기업의 현재 논의 중이 AI윤리에 대한 원칙을 마련한 바 있다. 정부는 2007년에 ‘지능형 로봇’, 즉 AI에 대한 헌장을 만들었다. 당시로는 세계 최초 AI 윤리 헌장으로, 과학자, 의사, 변호사 등 각계 전문가 12명이 모인 로봇윤리 협의체에서 초안을 만들었다. 초안은 헌장의 목표를 중심으로 인간 · 로봇 · 공동 · 제조자 · 사용자 · 실행에 대한 윤리 원칙을 담고 있다. 이는 이듬해인 2008년 제정될 ‘지능형 로봇 개발 및 보급 촉진법’을 위한 사전 작업이었다. 

그러나 공식 인정을 받지 못하고 초안에 그치고 말았다. 현재 ‘지능형 로봇법’만 유명무실한 채 남아있다.

행정안전부는 2018년 말에 AI 윤리 기준과 가이드라인 제정을 위한 연구를 착수하겠다고 밝혔다. 하지만 새롭게 지정된 AI 대학원 3개 대학에서도 AI 윤리 관련 커리큘럼이나 전문 연구진을 찾을 수 없을 정도로 연구 풍토는 부족한 실정이다.

익명을 요구한 정부 관계자는 “2007년 당시에는 AI에 대한 이슈가 크지 않았기 때문에 오히려 논의가 용이했다”며, “지금 상황에서는 성과 위주의 정책 환경 때문에, 산업 확산을 방해하는 꼴이 AI윤리 문제를 강하게 다루기 쉽지 않을 것”이라고 전했다. 

이어 “아무래도 AI윤리는 연성 원칙으로 제정될 텐데, 학계과 국내 기술 기업들 사이에서 논의의 시작점이 되길 바란다”고 덧붙였다. 

   (2007년 만들어진) '로봇 윤리 헌장 초안'

   1장(목표) : 로봇 윤리 헌장의 목표는 인간과 로봇의 공존·공영을 위해 인간 중심의 윤리 규범을  확립하는데 있다.
   2장(인간, 로봇의 공동 원칙) : 인간과 로봇은 상호 간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.
   3장(인간 윤리) : 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.
   4장(로봇 윤리) : 로봇은 인간의 명령에 순종하는 친구ㆍ도우미ㆍ동반자로서 인간을 다치게 해서는 안 된다.
   5장(제조자 윤리) : 로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보 보호 의무를 진다.
   6장(사용자 윤리) : 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며, 불법 개조나 로봇 남용은 금한다.
   7장(실행의 약속) : 정부와 지자체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.


 

네이버 뉴스 스탠드에서 디지털투데이를 만나보세요. 디지털투데이 뉴스스탠드 바로가기 - MY 뉴스 설정
관련기사