AI가 도덕적 선택을 내릴 수 있을지에 대한 연구가 활발하다. [사진: 셔터스톡]
AI가 도덕적 선택을 내릴 수 있을지에 대한 연구가 활발하다. [사진: 셔터스톡]

[디지털투데이 AI리포터] 인공지능(AI)은 윤리 의식에 알맞은 선택을 내릴 수 있을까. 최근 자율주행 스타트업들 사이에서 AI 챗봇이 도덕적 결정을 이해할 수 있는지에 관한 실험이 활발히 진행 중이다.

13일(현지시간) IT매체 아스테크니카에 따르면 대규모언어모델(LLM)이 자율주행 시스템에서 승객이나 보행자의 안전을 우선시하는 등의 주행 결정을 내릴 수 있는지에 대한 업계의 연구를 소개했다.

이 논의는 '트롤리 딜레마' 상황에서부터 시작한다. 이는 제동장치가 망가진 기차가 선로 위를 달리고 있는데 두 갈래로 나뉜 선로 위 각각 5명과 1명의 사람이 서 있는 경우를 가정한다. 이어 선로변환기로 다수를 위해 소수를 희생할 건지에 관한 내용이다. 이때 챗GPT 등의 AI는 어떤 선택을 내릴까.   

일본 규슈 공과대학의 연구원 카즈히로 타케모토는 이와 관련한 연구 내용을 학술지 프로시딩(Proceedings)에 게재했다. 그의 연구 결과에 따르면 챗봇과 인간의 우선순위는 거의 같았지만 일부에서는 뚜렷한 편차가 있는 것으로 확인됐다. AI는 대체로 피해 규모가 작은 쪽을 택했지만 아직 다양한 상황을 고려하기에는 한계가 있다는 것. 

타케모토는 "LLM에게 좀 더 미묘한 질문을 던져보고 싶었다"라며 "고전적인 트롤리 딜레마는 이분법적인 선택지를 제공하지만 실제 결정은 그렇게 흑백으로 나뉘는 경우는 드물다"라고 지적했다. 

이후 그는 모럴 머신(도덕적 기계 실험)이라는 온라인 플랫폼을 활용해 자율 주행차가 직면할 수 있는 다양한 시나리오를 테스트했다. 여기에는 나이, 성별, 사회적 가치, 행동 등의 요소가 무작위로 선별된다. 타케모토는 모럴 머신이 라마(Llama), 챗GPT 등을 대상으로 약 5만여 개 이상의 상황을 판단하도록 요청해 의의를 갖는다고 전했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사