챗GPT [사진: 셔터스톡]
챗GPT [사진: 셔터스톡]

[디지털투데이 AI리포터] 인공지능(AI)이 생성한 콘텐츠가 더 많이 온라인에 게시됨에 따라, 이를 기반으로 훈련된 미래의 AI는 결국 허황된 내용을 생성할 수 있다는 주장이 제기됐다. 

19일(현지시간) IT매체 비즈니스인사이더에 따르면 지난 5월 영국 및 캐나다 연구진은 서로 훈련된 여러 AI가 몇 세대 후에 어떤 일을 초래하는지 이해하기 위한 논문을 발표했다. 

연구진 중 한 명인 로스 앤더슨 영국 케임브리지대학 교수는 "몇 세대 안에 AI가 생성한 텍스트는 쓰레기가 된다"고 썼다. 연구진은 AI가 만든 이미지도 이해하기 어려워진다고 주장했다. 

일반적으로 챗GPT와 같은 대규모 언어 모델은 인터넷에서 가져온 방대한 양의 데이터로 훈련된다. 그러나 이러한 도구의 사용이 증가함에 따라 AI가 생성한 콘텐츠가 미래의 대규모 언어 모델이 학습할 데이터에 대량으로 추가되고 있다.

따라서 여러 세대를 거치면서 오류와 허황된 사실이 증가하게 돼 나중에는 AI가 사실과 허구를 구분할 수 없게 돼버린다는 지적이다.

로스 앤더슨 교수는 이를 막대한 지구 오염에 비유하며 "우리가 바다에 플라스틱 쓰레기를 흩뿌리고 대기를 이산화탄소로 채운 것처럼 인터넷을 허황된 소리들로 가득 채우고 있다"고 경고했다.
 

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지