딥페이크 기술 관련 범죄 가능성이 늘고 있다 [사진: Flickr]
딥페이크 기술 관련 범죄 가능성이 늘고 있다 [사진: Flickr]

[디지털투데이 AI리포터] 딥페이크를 이용한 영상은 재미를 주기도 하지만, 기술이 발전함에 따라 이에 대한 우려도 커지고 있다.

17일(현지시간) 모바일 전문매체 폰아레나에 따르면, 딥페이크 영상은 온라인 사기 범죄에도 사용되고 있다.

최근 한 인도인이 딥페이크 관련 사기에 휘말렸는데, 약 490달러(약 62만원)의 손실을 입었다. 피해자는 왓츠앱 비디오 통화를 받았고, 범인은 딥페이크 기술을 이용해 피해자의 전 동료 중 한 명과 닮은 모습으로 나타나 친척의 병원비가 필요하다며 돈을 요구했다. 범인은 전 동료 몇 명을 언급하며 신빙성을 뒷받침하기도 했다.

이러한 딥페이크 비디오 사기는 특히 인도에서 빈번하게 발생하는 것으로 보인다. 사이버 보안 회사 맥아피(McAfee) 연구 결과, 인도인 10명 중 1명이 AI 음성이나 딥페이크 사기를 경험했다.

중국에서도 범인이 AI 기반의 얼굴 교체 기술을 사용해 피해자의 지인으로 위장하고 60만달러(약 7억5700만원)를 이체할 것을 요구한 사례가 있었다. 또 영국에서는 딥페이크 사기 광고가 인터넷에 등장하기도 하는데, 이 광고는 전문가의 모습과 목소리를 딥페이크 기술로 복제해 사기 앱에 투자하도록 피해자를 꾀어낸다.

AI가 빠르게 발전하고 법이 따라가기 힘든 상황에서 딥페이크 영상을 구별하는 방법을 알아둘 필요가 있다. 다음은 몇 가지 주요 고려 사항이다.

일반적으로 딥페이크 비디오는 품질이 낮기 때문에 워터마크나 기타 표시를 먼저 확인해야 한다. 또 대부분의 가짜 비디오들은 일정 시간 후 다시 처음부터 반복되거나 제대로 끝나지 않고 갑작스럽게 종료돼 이를 유의해야 한다.

비디오 비율도 유심히 볼 필요가 있다. 가짜 화상 통화 영상을 만들 때 비디오 크기를 웹캠 창이나 앱에 맞게 조정하기 때문에 비디오 비율이 왜곡됐거나 지나치게 넓진 않은지 주의해야 한다.

전화를 건 사람이 하는 말의 내용도 주의 깊게 고려해야 한다. 해당 지인이 정말로 그런 말을 했는지, 또는 서로만 알 수 있는 기억 등을 물어보는 것도 방법이다.

이러한 요소들을 고려함으로써 딥페이크 비디오를 식별하고 사기 피해로 부터 자신을 보호할 수 있다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사