캐릭터AI가 10대 사용자의 챗봇 상호작용을 제한한다. [사진: 캐릭터AI]
캐릭터AI가 10대 사용자의 챗봇 상호작용을 제한한다. [사진: 캐릭터AI]

[디지털투데이 AI리포터] 인공지능(AI) 스타트업 캐릭터AI(Character.AI)가 18세 미만 사용자의 챗봇 상호작용을 제한한다.

29일(현지시간) IT매체 엔가젯에 따르면, 캐릭터AI가 플랫폼 내에서 사용자와 챗봇 간의 자유로운 대화를 18세 미만이 이용할 수 없도록 조치할 예정이라고 설명했다.

이번 변화는 오는 11월 25일 시행되며, 시행 전까지 18세 미만 사용자는 하루 최대 2시간만 챗봇과 상호작용할 수 있다. 회사는 해당 시간제한을 점차 줄이며 새로운 정책으로 전환할 계획이다. 또한 캐릭터AI는 내부 개발한 연령 확인 도구를 도입해 사용자에게 연령에 맞는 경험을 제공할 예정이다.

회사는 아울러 AI 안전 연구소(AI Safety Lab)를 설립해 다른 기업, 연구자, 학계와 협력해 AI 안전 조치를 개선할 방침이다. 이러한 조치는 규제 당국·업계 전문가·학부모의 우려를 반영한 것으로, 특히 미 연방거래위원회(FTC)가 챗봇을 통한 청소년 상호작용 문제를 조사한 데 따른 후속 대응 성격을 띤다.

최근 AI 챗봇이 청소년에게 미치는 부정적 영향이 논란이 되는 가운데, 캐릭터AI의 결정이 업계 전반에 영향을 미칠 것으로 보인다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사