AI 모델의 환각 현상을 해결할 수 있는 실마리가 발견됐다 [사진: Reve AI]
AI 모델의 환각 현상을 해결할 수 있는 실마리가 발견됐다 [사진: Reve AI]

[디지털투데이 추현우 기자] 오픈AI 연구진이 생성형 AI 챗봇의 환각(hallucination) 문제를 해결할 실마리를 찾았다고 5일(현지시간) 비즈니스인사이더가 전했다. 

환각은 대형 언어 모델(LLM)이 부정확한 정보를 사실처럼 생성하는 현상으로, 오픈AI GPT-5부터 앤트로픽 클로드(Claude)까지 다양한 모델에서 발생한다. 연구진은 환각의 원인이 '시험 모드'처럼 작동하는 AI의 학습 방식에 있다고 분석했다. 

기존 평가 시스템이 불확실성을 허용하지 않고 추측을 장려하는 구조로 설계돼, AI가 틀릴 가능성이 있어도 답변하도록 유도한다는 것이다.

이에 따라 오픈AI는 평가 지표를 수정해 AI가 불확실할 때 답변을 유보하도록 유도하는 방안을 제안했다. 정확성 기반 평가가 계속해서 추측을 보상하는 한, AI는 환각을 반복할 수밖에 없다는 경고도 덧붙였다.

AI 환각 문제는 단순한 기술적 오류가 아니라, 학습 시스템 전반의 설계 결함에서 비롯된다는 점에서 시사하는 바가 크다. AI가 인간처럼 불확실성을 인식하고 판단할 수 있도록 학습 구조를 혁신하는 것이 해결의 열쇠가 될 것으로 보인다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사