![[사진: 셔터스톡]](https://cdn.digitaltoday.co.kr/news/photo/202204/440743_422652_2731.jpg)
[디지털투데이 황치규 기자] 그동안 머신러닝이나 딥러닝과 같은 AI가 내린 결정은 그 배경을 파악하는 것은 쉽지 않았다. 사람들 입장에선 받아들이느냐 마느냐 선택이 가능했을 뿐 왜 AI가 그런 결정을 내렸는지 이해먼저하고 판단하는 것은 불가능에 가까웠고 이건 AI 확산을 가로막는 걸림돌 중 하나로 여겨졌다. 이에 따라 결정한 것을 설명할 수 있는 AI(Explainable AI, XAI)에 연구 개발도 학계와 업계 중심으로 점점 활발해지는 분위기다. 최근에는 설명 가능한 AI가 실전에 투입되는 사례들도 나오고 있다.
마이크로소프트 산하 비즈니스 SNS인 링크드인도 그중 하나다. 회사측에 따르면 링크드인은 고객들이 계약을 취소할 위험을 예측해주고, 왜 그런지도 설명도 해주는 AI 소프트웨어를 영업 담당자들에게 적용했다.
설명 가능한 AI 활용하는 링크드인 행보는 실험적인 수준은 이미 넘어섰다. 링크드인은 성과 개선이라는 분명한 목표 아래 설명 가능한 AI를 도입했고 나름 효과도 보고 있다.
로이터통신 보도에 따르면 링크드인은 2년 이상 시행착오를 거쳐 설명 가능한 AI시스템인 '크리스탈 캔들 바이 링크드인'(CrystalCandle by LinkedIn)을 지난해 7월 선보였고 이후 구독 매출을 8% 까지 끌어올렸다.
링크드인은 최근 블로그에 올린 글을 통해 '크리스탈 캔들 바이 링크드인'(CrystalCandle by LinkedIn)는 AI가 작동하는 방식을 보여주는데 있어 돌파구라고 강조한다. 개선할 부분이 있지만 나름 써먹을 만한 수준에는 이르렀다고 보는 것 같다. 일반적으로 예상됐던 것보다 올해 회계연도에서 갱신 예약이 8% 증가했다는 점을 증거로 내세웠다. 구체적인 금액은 말하지 않았지만 상당한 수준이란게 링크드인 설명이다.
'크리스탈 캔들 바이 링크드인' 도입전, 링크드인 영업 담당자들은 자신들이 가진 직관과 일부 허점이 있는 자동화된 알람에 의존해 판단을 내렸지만 지금은 달라졌다.
AI가 빠르게 분석해 눈에 띄지 않았던 트렌드와 합당한 추론을 제시해 영업 담당자들이 계약을 취소할 위험이 있는 고객들을 계속 유지하고 다른 고객들에게는 업그레이드를 할 수 있도록 하는데 도움을 준다고 로이터통신은 전했다.
링크드인은 채용, 광고, 마케팅, 교육 상품들에 걸쳐 5000명 이상 영업 담당자들에게 설명할 수 있는 AI시스템 적용을 확장했다.
2020년만 해도 링크드인 AI 소프트웨어는 설명 없이 예측만 가능했다. 이 시스템은 고객들이 조만간 계약을 업그레이드할지, 유지할지, 취소할지에 대한 가능성을 스코어화해 보여줬다. 정확도는 80% 수준이었다. 이걸로는 영업 담당자들을 완전히 설득하기는 무리였다.
링크드인 인재 채용 소프트웨어를 판매하는 팀은 특히 고객이 갱신을 하지 않을 가능성이 동전 던지기에 다름 아닐 때 전략을 어떻게 조정할지, 완전히 이해하지 못했다고 로이터통신은 전했다.
이런 가운데 링크드인은 지난해 7월부터 AI 소프트웨어를 통해 영업 담당자들에게 스코어에 영향을 미친 요인들에 대해 강조하는 자동 생성된 짦은 문구들을 제공하기 시작했다. 예를 들면 AI가 지난 1년간 직원수가 240명까지 늘었고 채용 후보자들이 지난달 146% 더 응답을 보였기 때문에 고객사들은 업그레이드를 할 가능성이 높다고 결론 내리는 식이다.
레카 도시 링크드인 글로벌 운영 담당 부사장은 "설명에 기반해 영업 대표들은 이제 고객들이 경험을 개선하고 지출을 유지할 수 있도록 해주는 교육, 지원, 서비스를 안내하고 있다고 전했다. 파레즈 아함마드 링크드인 머신러닝 및 데이터 과학 어플라이드 리서치 총괄 이사는 "설명 가능한 AI는 경험 있는 영업 담당자들이, 잠재 고객들과 대화하도록 구체적인 통찰력을 제공하고 신규 영업 영담자들은 바로 일에 착수하는데 도움을 줬다"고 말했다.
링크드인 사례처럼 설명 가능한 AI는 이제 테크 영역에서 전략적 요충지로 떠올랐다. 실리콘밸리에서도 큰 투자가 이뤄지고 있고 스타트업들과 대형 클라우드 업체들은 불투명한 소프트웨어를 보다 이해할 수 있도록 만들기 위해 경쟁하고 있다고 로이터통신은 전했다.
미국과 유럽에도 논의되는 규제도 설명 가능한 AI를 요구하는 쪽으로 방향이 쏠리는 양상이다.
연방 거래 위원회(Federal Trade Commission)를 포함해 미국 소비자 보호 규제 당국들은 최근 2년간 설명할 수 없는 AI는 조사를 받을 수 있다고 경고해왔고 유럽연합(EU)는 내년 사용자가 자동화된 전망을 해석할 수 있도록 하는 것을 포함해 광범위한 요구사항들을 담은 인공지능 조항을 통과시킬 가능성이 있다.
AI 기술은 인종, 성별, 문화를 둘러싼 사회적인 편향을 영구적으로 만들 수 있는 가운데, 일부 AI 과학자들은, 설명을 이들 문제에 따른 결과를 완화하는 중요한 부분으로 보고 있다고 로이터통신은 전했다. 지지자들은 설명 가능성이 헬스케어, 영업과 같은 분야에서 AI 적용 효과를 늘리는데 도움이 될 것이란 입장이다.
하지만 반론도 아직은 만만치 않다. AI가 왜 그렇게 예측했는지에 대한 설명은 신뢰하기는 무리라는 지적도 적지 않다. AI가 이런걸 하기에는 충분치 않다는 것이다. 설명 가능한 AI를 개발하는 링크드인과 다른 회사들도 프로세스 분석 예측 각 단계, 설명 생성, 정확도 확인 등은 여전히 개선할 공간이 많다는 것을 인정하고 있다고 로이터통신은 전했다.
AI 진영 내에선 설명이 꼭 필요한 것인지에 대해 의문을 표시하는 전문가들도 있다. 일부 AI 전문가들은 AI에서 설명은 오히려 해가 될 수 있다고 지적한다. 예측 정확도를 떨어뜨리는 설계 희생을 초래할 수 있다는 것이다.
스탠포드 인간 중심 인공지능연구소의 페이 페이 리(Fei-Fei Li) 공동 디렉터는 "사람들은 내부가 어떻게 작동하는지 깔끔하게 이해할 수 없는 타이레놀이나 구글맵스 같은 제품을 사용한다"면서 이들 제품의 경우 철저한 테스팅과 모니터링으로 효과에 대한 대부분의 의심을 없앴다"고 말했다.
이런 가운데서도 설명 가능성은 AI를 비즈니스 현장에 투입하려는 기업들에게는 필요 조건으로 떠오르는 모습이다.
링크드인은 알고리즘 무결성은 그것의 생각을 이해하는 것 없이는 평가될 수 없다는 쪽이다.
구글의 빈 김 AI 연구원은 "희망은 설명은 프로모션하고 싶은 가치와 콘셉트에 시스템이 부합하는지 보여준다는 것이다"면서 "해석 가능성은 궁극적으로 기계와 사람 사이에 대화를 가능케 하는 것으로 보고 있다"고 말했다.
최근 마이SQL 클라우드 데이터베이스 서비스에 트랜잭션를 머신러닝(ML) AI 기능인 히트웨이브ML도 추가한 오라클도 설명 가능성을 강조한다. 니푼 아가르왈 오라클 수석 부사장은 "머신러닝이 기업에서 광범위하게 쓰이려면 설명 가능성을 지원하는 것이 필수라고 판단했다"면서 "시스템에 왜 그렇게 행동했는지, 알수 있어야 한다. 히트웨이브ML 모델들에는 설명이 포함돼 있다"고 말했다.
SNS 기사보내기
관련기사
- [테크인사이드] 리버스 ICO와는 달라? 심판대 선 크립토 두번째 열풍
- [테크인사이드] 클럽하우스의 반짝 열풍과 음성 SNS의 미래
- [테크인사이드] 전 세계 '랩서스' 비상...달라도 너무 다른 해킹 스타일
- [테크인사이드] 오픈소스 SW 개발자들이 떠나고 있다...왜?
- [테크인사이드] 빅클라우드 플랫폼들의 야심만만 보안 전략...파장은?
- [테크인사이드] 클라우드 시대인데 클라우드 게임은 왜 고전할까
- [테크인사이드] 링크·파일 안눌러도 당하는 제로클릭 해킹의 은밀한 세계
- [테크인사이드] 프로그래밍 대회 상위 54% 수준, 코딩하는 AI 탄생
- [테크인사이드] MS는 왜 게임으로 메타버스에 베팅할까
- [테크인사이드] 딥러닝AI 구루, 왜 빅데이터 대신 스몰데이터 강조하나
- 구글, 'AI의 모든 것: A에서 Z까지' 웹사이트 공개

