[디지털투데이 유다정 기자] 30일 카카오가 알고리즘 윤리헌장에 '기술의 포용성' 항목을 추가해 개정했다. 알고리즘 기반의 기술과 서비스가 우리 사회 전반에 적용되면서, 의도되지 않은 소외까지 없도록 노력하겠다는 의미다.

카카오는 지난해 국내 기업 중 처음으로 알고리즘 규범을 만들어 발표한 바 있다. '카카오 알고리즘 윤리 헌장'은 ▲카카오 알고리즘의 기본 원칙: 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며, 이를 통해 인류의 편익과 행복을 추구한다 ▲차별에 대한 경계: 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다 ▲학습 데이터 운영: 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집·분석·활용한다 ▲알고리즘의 독립성: 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다 ▲알고리즘에 대한 설명:이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다 등 5개항으로 구성됐다.

여기에 '6항 기술의 포용성: 알고리즘 기반의 기술과 서비스가 우리 사회 전반을 포용할 수 있도록 노력한다'가 추가된 것이다.

8월 30일 개정된 카카오 알고리즘 윤리 헌장 (이미지=카카오)
8월 30일 개정된 카카오 알고리즘 윤리 헌장 (이미지=카카오)

카카오가 'if 카카오 개발자 컨퍼런스'에서 '카카오 알고리즘 윤리 헌장'의 개정 사실을 밝히고, 그 배경을 설명했다.

김대원 카카오 대외정책팀 박사는 AI와 윤리에 대한 논의가 편향된 경우가 많다는 점을 지적했다. AI의 정의는 '인간처럼 이성적으로 생각하거나 행동하는 것'. 윤리의 정의는 '사람으로서 마땅히 지키거나 행해야 할 도리나 규범'이다. 과연 현재 AI 수준이 윤리를 지켜야 할 만큼 사람과 같을까? 

IT기술전문매체 쿼츠는 'AI가 스모를 배우게 되면 그때 윤리를 적용해도 늦지 않는다'는 제목의 기사를 쓴 적 있다. 스모 경기장(도요)는 둥글다. 경기의 룰은 상대방을 뒤로 밀어내는 자가 이기는 것이지만 선수들은 360도로 움직인다. 즉 AI가 단순히 0과 1의 이분법적 사고가 아니라 전방위적으로 인간처럼 사고하게 될 때 윤리라는 잣대를 들이밀어도 된다는 것이 기사의 골자다.

그럼에도 AI 윤리가 필요하다는 근거는 다른 기술과 달리 인간의 지적 능력을 대체하기 때문이다. 과학은 발전할테고 결국은 완벽한 AI도 만들어질테니 AI도 이미 윤리가 있어야 된다는 논리다. '터미네이터', '엑스마키나'와 같은 영화처럼 AI가 인간을 공격할 수도 있다는 공포심은 오래 전부터 있어왔다. 알파고와 이세돌 간 대국이 있었던 2016년, 이전에는 거의 없었던 AI 구글 검색량이 폭등했다. PR업무에서 AI 도입에 대한 인식 또한 대국 이후 '가능성이 높아졌다'로 변했다는 조사 결과도 있다. 

김대원 박사는 결국 "인공지능에 대한 공포심은 알파고로 다가온 기술 문화적 충격으로 해석될 수 있다"고 설명했다.

'인공지능' 단어 시기별 검색 빈도 추이(이미지=카카오)
'인공지능' 단어 시기별 검색 빈도 추이(이미지=카카오)

김 박사가 AI 윤리 1기라고 본 것은 1942년 '아시모프의 3원칙'이다. 로봇이 인간에게 해가 가도록 해서는 안 된다는 것이 골자다. 2기는 2004년 일본 후쿠오카 세계 로봇 선언이다. 여기선 차세대 로봇이 인간과 공존하는 '파트너'가 될 것이라고 봤다. 

그리고 3기에서는 구체적인 역기능에 대한 방어가 시작된다. 2010년 영국의공학과 물리과학 연구위원회의 로봇 원칙에서 사생활 보호를 언급한 것, 2010년 일본의 AI 가이드라인에서 AI네트워크 시스템을 설명하고 검증할 수 있는 투명성을 확보해야한다는 점 등이다. 4기로는 아실로마 원칙이 거론됐다. 삶의미래연구소(FLI)가 2017년 1월 개최한 컨퍼런스인 ‘유익한 AI 2017’(Beneficial AI 2017)에서 발표된 이 원칙은 인간의 두뇌를 뛰어 넘은 지능을 가진 '초지능'이 언급됐으며, AI 무기 경쟁에 대한 우려도 담겼다.

카카오는 AI가 인프라적인 측면에서 자사 서비스를 고도화할 수 있는 하나의 수단으로 보고 있다. AI에 대한 공포심이 사회 전반에 퍼짐에 따라 "삶의 편의를 한 단계 높일 AI가 사회 윤리 범주 안에서 온당함을 유지하는 것"이 회사의 문제의식으로 떠올랐다. 그래서 카카오 전체 크루의 의견을 종합해서 만들어진 것이 '알고리즘 윤리헌장'이다.

2018년 1월 발표돼 1년 반이 지난 지금, '기술의 포용성' 항목이 추가된 이유는 카카오의 서비스가 일상 곳곳에서 쓰이고 있기 때문으로 풀이된다. 김 박사는 "카카오는 세상을 연결하겠다는 목표를 가진 회사로, 내놓는 결과물이 대부분 빅블러(Big Blur)가 되는 때가 많다"고 설명했다. 빅 블러는 AI·빅데이터·사물인터넷(IoT) 등 첨단 기술의 발달로 산업의 경계가 모호해지는 현상을 뜻한다. 

김 박사는 "가령 카카오뱅크는 정체됐던 우리 금융 문화를 바꾸고 개선시키는 '메기'가 됐다. 긍정적인 효과와 더불어 모든 것에는 기존 서비스나 헤게모니와 충돌이 일어날 수밖에 없다. 그런 과정에서 기술로써 많은 범위를 포괄하고 함께 상생할 수 있는 방안을 마련해야 하지 않을까 치열하게 고민했다...알고리즘에 의해 '의도되지 않는' 사회적 소외도 없도록 취약계층까지 고려하겠다는 내용을 담은 것"이라고 덧붙였다.

AI 개념도 (사진=테크크런치)
AI 개념도 (사진=테크크런치)

 

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사