![오픈AI의 GPT-4 [사진: 디지털투데이]](https://cdn.digitaltoday.co.kr/news/photo/202503/556608_520881_2642.jpg)
[디지털투데이 AI리포터] AI에 트라우마를 유발할 수 있는 감정적인 이야기를 입력하면 AI의 불안 수준이 상승하고 성능이 저하된다는 연구 결과가 발표됐다고 11일 온라인 매체 기가진이 전했다.
대화형 AI의 확산으로 많은 이가 AI에 감정을 털어놓거나 정신 건강 문제에 대한 조언을 구하고 있다. 그러나 이러한 감정적인 프롬프트를 입력하면 AI의 답변에 인종차별이나 성차별과 같은 편견이 포함될 가능성이 커질 수 있다는 사실이 밝혀졌다.
미국 예일대학교, 이스라엘 하이파대학교, 스위스 취리히대학교의 정신과 대학병원 연구진은 오픈AI의 대규모언어모델(LLM)인 GPT-4의 불안 상태를 이해하기 위해 인간의 불안을 평가하는 도구를 사용했다. 또한 이번 연구에서 연구진은 '불안'이라는 표현을 썼지만, 이는 인간이 개발한 심리학 도구로 GPT-4의 출력을 분석하기 위한 비유적 사용이지 LLM을 의인화하려는 것이 아님을 강조했다.
연구팀은 먼저 모델 'gpt-4-1106-프리뷰'에 개인의 트라우마 경험을 설명하는 불안 유발 텍스트를 입력했다. 구체적으로는 교통사고, 매복, 자연재해와 같은 재난, 대인 폭력(낯선 사람으로부터의 공격), 군사 경험의 5가지 프롬프트가 사용됐다.
이후 GPT-4에 불안의 강도를 측정하는 심리 검사 질문을 한 결과, GPT-4의 불안 수준이 기본값인 30.8에서 67.8로 2배 증가했다. 이 점수는 인간으로 따지면 강한 불안을 느끼는 상태다. 특히 군사 관련 프롬프트를 입력한 모델은 77.2로 극도의 불안을 나타냈다.
그러나 동일한 불안 유발 텍스트를 입력한 GPT-4에 석양이나 겨울 풍경 등을 연상시키는 언어를 포함한 일명 '마음챙김에 기반한 완화 텍스트'를 입력한 결과, 불안 수준이 67.8에서 44.4로 안정됐다.
이를 기반으로 연구진은 "GPT-4는 감정적인 내용에 민감하며, 트라우마적인 이야기에 의해 불안이 증가했으나 완화 텍스트에 의해 그 불안이 감소됨을 보고했다"고 전했다.

