[디지털투데이 석대건 기자] ‘연습이 완벽을 만든다(Practise makes perfect)’는 격언은 반만 맞다. 잘못된 연습은 완벽을 만들지 못한다. 격언을 수정하자면, ‘완벽한 연습이 완벽을 만든다.’

AI의 머신러닝(ML, Machine learning)도 이와 같다. 잘못된 머신러닝은 AI의 편향성을 강화시킬 뿐이다. 

지난 25일 구글은 AI 포럼을 통해 AI 머신러닝의 공적성과 사례, 개선 과제를 설명했다. 

잘못된 머신러닝은 잘못된 결과를 낳는다

발표를 진행한 베키 화이트(Becky White) 구글 AI 리서치 프로그램 매니저는 잘못된 머신러닝의 비유로 차량 충돌 사고 실험을 제시했다. 자동차 제조기업은 차량 출시 전, 충돌 실험을 통해 차량 탑승자의 신체 움직임을 파악하고 안전성을 높인다. 

그러나 이상하게도 실제 상황에서 여성 탑승자가 남성 탑승자에 비해 높은 사망률이 나왔다. 그 원인은 차량 실험에 쓰이는 더미가 남성 신체였기 때문. 그래서 데이터 역시 남성 탑승자 위주로만 수집됐고, 사고 시 남성 탑승자만 안전했다. 데이터의 왜곡이 발생한 경우다. 

AI가 잘못된 머신러닝을 통해 오히려 편향성이 강화된 경우로 대표적인 사례는 ‘이미지를 통한 성별 특성 분석’이다. 이미지를 통해  AI가 성적 특성을 분석한 기존 연구는 여성의 경우, 턱이 작고 코가 길며 이마가 좁았다. 반면, 남성은 턱이 크고 코가 크며 이마가 넓었다. 

그러나 구글이 조명이나 화장 여부 등 편향성 조건을 제거하자 결과는 달랐다. 기존 연구는 머신러닝을 통해 AI가 오히려 편향성을 강화했던 것.

(사진=석대건 기자)
‘이미지를 통한 성별 특성 분석’은 편향성이 강화된 경우로 대표적인 사례다. (사진=석대건 기자)

베키 화이트 구글 매니저는 머신러닝이 “인종, 민족, 종교, 소득 등 인구 편향 특성을 강화해서는 안 된다”며, “머신러닝 공정성에 대한 인식이 필요하다”고 말했다.

AI가 아무리 공정한 머신러닝을 통해 AI 고도화된다고 해도, 항상 객관적인 진실을 말하는 것은 아니라는 것. 그렇기 때문에 기존 데이터의 편향성을 확대 재생산할 수 있는 가능성을 차단할 수 있도록 인간이 인간이 항상 머신러닝 진행되는 동안, 사회적인 맥락을 인지하고 있어야 한다는 의미다.

머신러닝이 인간의 편향성 찾아내기도..."편향에 대해 아는 게 중요"

반대의 경우도 있다. 베키 화이트 구글 매니저는 지나 ‘데이비스 포용지수(GD-IQ)’를 머신러닝을 활용해 무의식적으로 적용되는 인간의 편향성을 찾아낸 좋은 사례로 들었다. 

영화배우이자 여성인권운동가인 지나 데이비스는 2007년 ‘지나 데이비스 미디어젠더연구소’를 설립하고, 미국 영화 속에서 여성 배우의 비중을 분석했다.

지나 데이비스의 연구 결과에 따르면, 2014~2017년 사이에 미국에서 흥행한 100위까지의 영화를 분석한 결과, 여성들의 출연 시간과 대사 분량은 남성 배우에 비해 절반 수준이었다. 지나 데이비스는 이 결과를 공개하며 “무의식적인 편향성을 드러내는 데 데이터는 가장 강력한 도구”라고 말했다. 이어 지나 데이비스는 점점 달라질 영화계를 기대한다고 덧붙이기도 했다. 머신러닝을 통해 인간의 편향성을 찾아낸 사례다. 

이에 대해 베키 화이트 구글 매니저는 “머신러닝을 통해 인간의 편향성이 강화되는 것을 방지할 수 있다”고 설명했다.

그렇다면 AI와 머신러닝 앞에서 인간의 역할은 무엇일까?

베키 화이트 구글 매니저는 우선 편향성 인지가 필요하다고 강조했다. 베키 화이트는 “데이터 안에는 편향성이 존재한다는 사실을 알아야 한다”며, “현실 문제의 원인과 해결책이 복합적이듯, 편향성을 제거할 수 있는 해결책도 복합적”이라고 말했다. 

편향성은 크게 세가지로 ▲ 선택 편향 ▲ 확인 편향 ▲ 자동 편향이 있다. 

먼저 ‘선택 편향’의 대표적인 예로는 지리적 편향이 있다. 베키 화이트 구글 매니저는 “북미에서 데이터를 생성하고 라벨링 후 머신러닝한 AI는 북미 지역에 대한 편향이 존재한다”며, “이는 신발이나 음식 등 모든 게 편향”이라고 설명했다. 확대 적용하지 말아야 된다는 경고다.

두번째는 ‘확증 편향’이다 . 대개 데이터 수집 과정에서 조사자(리서처)는 무의식적으로 자신의 믿음과 일치하는 방향으로 수집하게 되는데, 이는 데이터 처리 과정에서도 영향을 미친다. 이 경우 조사자 입장에서 겉보기에 편향이 보이지 않기 때문에 더욱 문제다.

(사진=석대건 기자)
머신 러닝 과정 중에도 인간의 편향성은 다수 개입할 수 있다. (사진=석대건 기자)

마지막으로 ‘자동 편향’이다. 머신러닝은 자동 처리 데이터를 비자동 처리 데이터 보다 선호한다. 이는 곧 데이터 배제로 이어지게 되고, 결국 편향성이 강화되는 꼴이다.

이러한 편향이 복합적으로 적용된 사례가 ‘직업과 성별 연결 편향’이다. 구글이 200개의 직업 관련 단어의 편향성을 분석한 결과, 가사 도우미나 종업원, 간호사에는 여성에 분류됐고, 장의사, 심판, 배우, 철학자, 대통령과 같은 직업은 남성에 분류됐다.

베키 화이트 구글 매니저는 “이러한 편향으로 만들어진 머신러닝은 비록 실제 현실을 반영한다고 하더라도 부정적인 사회적 편향을 강화한다”고 말했다.

현실 데이터로 머신러닝한 결과, 직업에 따른 성별 편향성을 강화하는 결과가 나왔다. (사진=석대건 기자)

편향성 문제가 하나의 원인이 아니듯, 다양한 접근 방법이 필요해

구글은 이러한 편향성을 제거하기 위한 공공 정책(Public Policy) · 엔지니어링 · UX 디자인 · 교육 등의 여러 관점으로 접근하고 있다. 

구글은 머신러닝의 편향이 사회적인 문제와 결부됐다는 점을 인지하고, 머신러닝 개발 시스템이 어떻게 분석 결과에 영향을 미치는지 파악하는 한편, 머신러닝 시스템 사용자에게도 공정성에 대해 인지시키고 있다. 나아가 머신러닝 개발자에게도 사회적인 맥락에서 시스템을 개발하도록 교육한다고 밝혔다.

이를 위해 구글은 ‘오픈 데이터셋’을 공유해, 각 데이터에 대한 속성을 추가해, 머신러닝 ‘데이터 맥락’을 고려할 수 있도록 지원한다. 더불어 ‘Facets’ 툴을 통해 데이터 시각화로 편향성을 점검하고, 나아가 ‘What-If’ 모델을 머신러닝에 적용해 모델링 설계에 따라 분석 결과가 다른 경우도 확인하고 있다. 

베키 화이트 구글 매니저는 “머신러닝은 사람들의 삶에 영향을 지속적으로 영향을 준다”며, “모두가 사용할 수 있도록 접근 가능하게끔 도움을 주는 게 구글의 미션”이라고 밝혔다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지