[디지털투데이 석대건 기자] 여기저기서 인공지능(AI)을 외치지만, 여전히 AI를 바라보는 시각이 단편적이라는 지적이 나온다.

현재의 AI 개발 방향이 고도 산업화를 위한 생산성과 효율성의 극대화 측면에서만 다뤄지고, 인간 보호 즉, 사회 시스템 내 기존의 법 · 제도와의 조화에 대한 노력과 동떨어진다는 것이다.

(사진=조성배 교수)
IITP ICT 기술과 법, 정책 포럼에서 조성배 교수(연세대)는 AI의 정의 어려움을 코끼리 만기지에 비유했다. (사진=조성배 교수)

지난 2016년 3월, 이세돌 바둑 9단과 구글 딥마인드의 알파고가 바둑으로 대결했던 딥마인드 챌린지 이후, AI의 가공할 만한 가능성이 우리나라에 알려졌다. 

이전까지만 해도 AI는 인간이 조종하는 기계적 장치로 여겨졌으나, 딥마인드 챌린지 이후 AI는 인간보다 몇 수나 앞서는 수준이라는 게 드러났다. 이는 다른 말로, 인간을 넘는 높은 효율성이 존재한다는 것을 암시했다.

글로벌 IT기업은 필두로, 대부분 산업계는 적극적으로 AI를 도입했다. 

가깝게 구글의 유튜브, 아마존, 넷플릭스 등은 사용자에게 영상, 제품, 영화 추천시스템에 AI 알고리즘을 도입했다. 포브스와 AP통신은 스포츠 경기나 기업 실적과 같은 기사 작성에 AI를 활용하고 있다. LA타임스는 자연 재해나 살인 사건 등에도 보도준칙이 AI를 활용하고 있다. 

이미 금융권의 자산관리 서비스에는 AI가 쓰이고 있으며, 의료 부분에서도 영상 분석 등 인간을 보완하는 AI가 점점 확대되는 중이다.

“AI에 집중하라”며, 관련 산업에 전폭적인 투자를 이끌고 있는 손정의 회장의 소프트뱅크에서 만든 감정인식 로봇 ‘페퍼(Pepper)’에도 AI가 적용됐다. 

AI가 사고 내면 누구 책임일까? 사회 시스템과 조화 대비 해야

그러나 다양한 AI 적용 영역이 지나치게 포괄적이다 보니, 법 · 제도의 접근을 어렵게 만들고 있다. 

가장 대표적인 사례가 ‘자율주행 차량의 운전 책임 판단’이다. 자율주행 차량 수준은 5단계로, 자율주행 기술이 없는 0단계부터 완전 자율주행인 5단계로 나뉜다. 현재 자동차 업계는 복잡한 도심 도로 조건과 돌발 상황에 자동으로 대응하는 4단계 자율주행 단계를 2020년까지 개발 · 출시하겠다는 목표다.

완전자율주행인 5단계에서 사고 발생 시 책임은 누가 지는 것일까? 자동차 제조사일까? 자율주행 SW제조사일까? 또 네트워크 담당자일까? 아니면 운전자일까? 자율주행차에는 운전자가 없으니, 이제 탑승자 책임 유무를 가려야 하는 것일까? 그렇다면 자율주행차에는 운전면허증이 아닌 탑승면허증이 별도로 필요할까?

이는 의료·법률 등 다른 분야에 AI를 적용될 경우, 해당 영역 전문가는 AI 전문가가 아니라는 점에서 별도의 AI 분석 관련 자격 검증이 필요하다는 것을 암시하기도 한다. 

이와 관련, MIT 슬론 매니지먼트 리뷰는 AI 개성을 강화하고 훈련시키는 AI 트레이너(AI trainer), 알고리즘에 기반한 의사 결정 과정을 명확하게 설명하는 AI 해설가(AI explainer), AI가 외부 위협에 손상되는 것을 방지하는 AI 유지/보수 전문가(AI sustainer)를 제시하기도 했다.

"개발자, 공급자, 이용자 모두의 윤리적 행위와 협력 필요해"

이희정 교수(고려대)는 우선적으로 AI 관여자들의 사전 합의가 필요하다고 말한다. AI 발전 과정에 있어, 아직 유형화가 되지 않는 상황에서 AI 기술의 위험, 부작용, 미지의 리스크를 최소화하고 사회에 대한 기여도를 높이기 위해서는 개발자, 공급자, 이용자 모두의 윤리적 행위와 협력이 선행되어야 한다는 것.

(사진=카카오)
카카오 알고리즘 윤리헌장 (사진=카카오)

정보통신기획평가원(IITP)에서 주최한 ICT 기술과 법, 정책 포럼에서 이희정 교수는 AI 적용 영역에서 법에 반영하는 것이 가능하고 필요한 영역을 도출해 입법함으로써 집행력과 안정성 제고해야 한다고 지적했다.

아울러 AI 적용에 기반이 되는 AI 윤리가 하나가 아닌, 일반적 윤리 가이드라인과 함께 각 산업별, 서비스별 윤리의 개발 노력이 필요하다고 전했다.

국내 기업 중 AI 윤리 고민을 앞장서는 곳은 카카오. 

지난 8월 카카오는 자사 ‘알고리즘 윤리 헌장’에 ‘기술의 포용성’을 포함해 새롭게 제시하기도 했다. 당시 카카오는 “알고리즘에 의해 '의도되지 않는' 사회적 소외도 없도록 취약계층까지 고려하겠다는 내용을 담은 것”이라고 개정 이유를 정했다.

우리 정부도 지난 2007년 산업자원부(현재 산업통상자원부)가 사회 각계 전문가들이 모여 ‘로봇윤리헌장’을 제정했지만, 유명무실한 상태다.

한국정보화진흥원(NIA)도 ▲ 공공성(publicness) ▲ 책무성(accountability) ▲ 통제성 (controllability) ▲ 투명성 (transparency) 등 4가지로 구성된  ‘지능정보사회 윤리 가이드라인 공통원칙 (PACT)’을 내놨지만 범정부적인 논의 수준으로는 나아가지 못했다.

한 AI 연구 관계자는 “이제라도 AI 관련 각종 지원 사업은 늘어난 것은 다행”이라면서도, “하지만 분명 AI에도 단점이 존재하기 때문에 이를 활용하는 고려해야 하는 윤리 가이드라인에 대한 고민을 공공과 기업이 계속해야 한다”고 말했다.

그는 이어 “만약 가이드라인 없이 발전만을 강조한다면, 80년대 경제 개발로 인한 빈부격차처럼 AI에 배제되는 사각지대는 심각한 사회문제로 돌아올 것”이라고 지적했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사