[사진: 셔터스톡]
[사진: 셔터스톡]

[디지털투데이 AI리포터] 2024년 미국 대선이 조금씩 다가오고 있는 요즘. 언제나 대선과 관련한 범죄는 존재해 왔다. 조작된 이미지, 편집된 비디오, 오해를 불러일으키는 자동 녹음전화 등 어느 것도 미국 대선과 관련해 새로운 범죄 양상이 아니다. 

그러나 이번 선거는 다르다. 생성형 인공지능(AI)의 출현으로 더욱 교묘하고 교활해진 범죄들이 쏟아지며 이번 선거가 유례없는 전쟁터로 변모하고 있다고 12일(현지시간) IT매체 더버지가 전했다.

조 바이든 미국 대통령의 로보콜 사건이 대표적이다. 링고 텔레콤(Lingo Telecom)과 라이프 코퍼레이션(Life Corporation)은 딥페이크로 대통령의 음성을 사칭해 뉴햄프셔 유권자에게 예비선거 기간 동안 투표에 참여하지 말고 집에 머물라고 지시했다. 유권자 다수는 실제 바이든의 지시라고 생각하는 등 사칭 피해로 인한 혼란을 겪은 것으로 드러났다. 

미국 연방통신위원회(FCC)는 생성형 AI가 만든 음성으로 자동 녹음전화를 이용하는 것을 불법으로 규정했다. 이를 통해 AI가 생성한 음성은 이제 전화소비자보호법(TCPA)에 따라 인위적이거나 사전 녹음된 음성으로 간주된다. 또, 최근 판결에선 관련 범죄자에게 조치를 취할 수 있는 권한을 부여하기도 했다.

대선을 앞둔 바이든의 시련은 이뿐만이 아니다. 최근 소셜미디어(SNS)에 떠도는 바이든의 영상 역시 논란이 됐다. 문제의 영상은 지난해 중간 선거 당시 바이든이 손녀의 가슴에 '투표했습니다'라는 문구가 적힌 스티커를 붙이고 손녀에게 뽀뽀를 하는 모습이 담겼다. 해당 영상에서 바이든이 손녀의 가슴을 만지는 동작이 반복 편집돼 '병든 소아성애자'라는 캡션이 붙여졌다.

해당 영상은 딥페이크 영상으로 알려졌다. 이에 페이스북 감독위원회는 조작된 미디어에 대한 메타의 정책을 재편 등을 고려하는 중인 것으로 알려졌다.

대선을 앞두고 잘못된 정보가 활개 치는  탓에 AI가 잘못된 정보를 더 쉽게 퍼뜨릴 수 있다는 우려가 커지고 있다. 마이크로소프트(MS)는 딥페이크를 단속하고 사이버 보안을 강화하기 위해 AI 콘텐츠를 식별하는 디지털 워터마크를 포함한 서비스를 제공하고 있다.

빅테크의 예방 및 해결책 도입에도 불구하고 선거 관련자들은 대선을 앞두고 자신들도 사칭 피해를 입을까 우려하고 있다. 이러한 변화를 보아 AI의 등장은 곧 미국 대선의 새로운 양상으로 자리 잡고 있는 것으로 보인다. 그러면서 다양한 대응 방안 마련이 필요하다는 지적 역시 계속 제기되고 있다.

매체는 이번 대선 주기를 통해 신기술의 한계, 미디어 활용 능력의 탄력성, 규제 기관의 역량 등을 테스트할 수 있게 될 것이라고 전망했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사