[디지털투데이 AI리포터] 2024년 미국 대선이 조금씩 다가오고 있는 요즘. 언제나 대선과 관련한 범죄는 존재해 왔다. 조작된 이미지, 편집된 비디오, 오해를 불러일으키는 자동 녹음전화 등 어느 것도 미국 대선과 관련해 새로운 범죄 양상이 아니다.
그러나 이번 선거는 다르다. 생성형 인공지능(AI)의 출현으로 더욱 교묘하고 교활해진 범죄들이 쏟아지며 이번 선거가 유례없는 전쟁터로 변모하고 있다고 12일(현지시간) IT매체 더버지가 전했다.
조 바이든 미국 대통령의 로보콜 사건이 대표적이다. 링고 텔레콤(Lingo Telecom)과 라이프 코퍼레이션(Life Corporation)은 딥페이크로 대통령의 음성을 사칭해 뉴햄프셔 유권자에게 예비선거 기간 동안 투표에 참여하지 말고 집에 머물라고 지시했다. 유권자 다수는 실제 바이든의 지시라고 생각하는 등 사칭 피해로 인한 혼란을 겪은 것으로 드러났다.
미국 연방통신위원회(FCC)는 생성형 AI가 만든 음성으로 자동 녹음전화를 이용하는 것을 불법으로 규정했다. 이를 통해 AI가 생성한 음성은 이제 전화소비자보호법(TCPA)에 따라 인위적이거나 사전 녹음된 음성으로 간주된다. 또, 최근 판결에선 관련 범죄자에게 조치를 취할 수 있는 권한을 부여하기도 했다.
대선을 앞둔 바이든의 시련은 이뿐만이 아니다. 최근 소셜미디어(SNS)에 떠도는 바이든의 영상 역시 논란이 됐다. 문제의 영상은 지난해 중간 선거 당시 바이든이 손녀의 가슴에 '투표했습니다'라는 문구가 적힌 스티커를 붙이고 손녀에게 뽀뽀를 하는 모습이 담겼다. 해당 영상에서 바이든이 손녀의 가슴을 만지는 동작이 반복 편집돼 '병든 소아성애자'라는 캡션이 붙여졌다.
해당 영상은 딥페이크 영상으로 알려졌다. 이에 페이스북 감독위원회는 조작된 미디어에 대한 메타의 정책을 재편 등을 고려하는 중인 것으로 알려졌다.
대선을 앞두고 잘못된 정보가 활개 치는 탓에 AI가 잘못된 정보를 더 쉽게 퍼뜨릴 수 있다는 우려가 커지고 있다. 마이크로소프트(MS)는 딥페이크를 단속하고 사이버 보안을 강화하기 위해 AI 콘텐츠를 식별하는 디지털 워터마크를 포함한 서비스를 제공하고 있다.
빅테크의 예방 및 해결책 도입에도 불구하고 선거 관련자들은 대선을 앞두고 자신들도 사칭 피해를 입을까 우려하고 있다. 이러한 변화를 보아 AI의 등장은 곧 미국 대선의 새로운 양상으로 자리 잡고 있는 것으로 보인다. 그러면서 다양한 대응 방안 마련이 필요하다는 지적 역시 계속 제기되고 있다.
매체는 이번 대선 주기를 통해 신기술의 한계, 미디어 활용 능력의 탄력성, 규제 기관의 역량 등을 테스트할 수 있게 될 것이라고 전망했다.
SNS 기사보내기
관련기사
- "바이든이 2029년까지 살까요?" 트럼프 캠프의 바이든 '고령 공격'
- 네이버-카카오, 총선 앞두고 '딥페이크·가짜뉴스' 차단 총력
- 美 바이든 로보콜 사건 연루된 통신사 2곳…배후는?
- 일상에 스며든 AI…국제적 안전 장치 필요성
- AI 가짜 이미지 양산하는 온라인 커뮤니티 '논란'
- 美 연방통신위원회 "현행법상 로보콜 불법"…관련 규제 강화 예고
- 팬들 뿔났다…테일러 스위프트 딥페이크 '논란'
- 교황도 지적한 딥페이크와 가짜뉴스 "우려된다"
- 바이든 목소리 모방한 로보콜 "대통령 예비선거 투표하지 말라"…조사 중
- 스테판 커리, 은퇴하면 정치하나?…대통령 출마 질문에 "아마도?"
- AI도 윤리·도덕 의식이 있을까?…업계 연구 '활발'
- AI 응답 해독하는 공격법 개발돼…개인정보보호 강화될까
- 美 대선 앞두고 中 SNS 허위 정보 '활개'…우려감 고조