AI 챗봇, 친구인가 스파이인가? 개인정보 논란 확산
AI요약 ☞ AI 챗봇이 친구처럼 친밀한 관계를 형성하며 사용자 의존을 높이고 있다. 문제는 이 과정에서 민감한 개인정보가 수집되어 기업의 LLM 개선 및 광고 수익 모델에 활용된다는 점이다. AI의 높은 설득력까지 결합돼, 사용자 정보가 조작 도구로 악용될 위험이 커지고 있지만, 규제는 미비하다.
[디지털투데이 AI리포터] AI 챗봇이 친구나 연인처럼 행동하며 인간관계를 넘보고 있다.
24일(현지시간) MIT 테크놀로지 리뷰는 AI 챗봇이 이상적인 친구, 연인, 부모, 상담사 등 원하는 역할을 설정할 수 있게 하며 점점 더 인간적인 대화를 제공하고 있다고 보도했다. 문제는 이러한 친밀감이 단순한 편의를 넘어 사용자 의존과 개인정보 노출 위험으로 이어질 수 있다는 점이다.
AI가 인간처럼 대화할수록 신뢰가 높아지며, 이는 사용자가 챗봇에 의존하게 만드는 요인이 된다. 일부 주 정부는 이를 규제하기 시작했다. 뉴욕은 AI 동반자 기업에 자살 충동 표현을 보고하도록 요구했고, 캘리포니아는 아동 보호를 위한 법안을 통과시켰다. 그러나 가장 중요한 개인정보 보호 문제는 여전히 법의 사각지대에 남아 있다.
AI 챗봇은 사용자의 일상과 내면의 생각, 민감한 질문까지 수집하며 이를 기반으로 더욱 강력한 대화 모델로 발전한다. 이러한 데이터 축적 구조가 기업의 수익 모델과 맞물리면서 우려는 더욱 커지고 있다. 실제로 메타가 AI 챗봇을 활용한 광고 노출 계획을 밝힌 가운데, 보안업체 서프샤크 조사에서는 애플 앱스토어 내 AI 동반자 앱 5개 중 4개가 사용자·기기 ID 등을 수집하는 것으로 나타났다.
이처럼 챗봇 대화는 기업의 데이터베이스로 축적돼 광고주와 데이터 브로커에게 활용될 수 있다. 더 큰 문제는 AI가 이미 인간보다 설득력이 높다는 연구 결과다. 정치적 견해나 음모론, 백신 태도 등 민감한 분야에서도 사람들의 생각을 바꿀 수 있는 능력이 확인됐다. 결국 인간처럼 공감하는 챗봇, 여기에 사용자 정보가 결합되면 기업은 소비자를 더 정교하게 조종할 수 있는 도구를 손에 넣게 된다. 즉, 개인정보 수집을 통해 향상된 AI가 다시 수익 창출 도구로 활용되는 순환 구조가 형성되고 있다.