[사진: 셔터스톡]
[사진: 셔터스톡]

[디지털투데이 황치규 기자] 최근 실어증으로 현역에서 은퇴한 유명 배우 브루스 월리스가 딥페이크 회사인 딥케이크(Deepcake)에 자신의 얼굴에 대한 권리를 팔았다는 언론 보도가 테크 업계는 물론 할리우드에서 화제를 불러일으켰다.

부루스 윌리스 공식 에이전트가 딥케이크와 협력이나 계약을 맺은 바 없다며 보도를 부인하고 나서면서 사건은 해프닝으로 끝나는 모양새지만 딥페이크, 풀어 쓰면 AI로 영상이나 사진을 합성하거나 조작하는 기술이 점점 사람들의 관심 대상으로 부상하는 것 같다. 때 맞춰 기존에 없던 사진이나 영상을 만들 수 있는, 이른바 생성 AI(Generative AI)가 확산되면서 딥페이크는 더욱 묵직한 키워드로 떠오르는 분위기다.

아직은 장남감 같은 품질이란 지적 속에서도 생성AI는 최근 몇 개월 사이 테크판을 주름 잡는 이슈들 반열에 올라섰다. 벤처 투자 회사(VC)들은 물론 빅테크 기업들까지도 생성AI를 주목하는 요즘이다.

최근에는 사진을 넘어 영상에 초점이 맞춰진 생성 AI 개발이 활발하다는 점도 눈에 띈다. 이미지 기반 생성AI는 상대적으로 스타트업들이 주도하는 판세인 반면 영상 쪽은 다르다. 자본과 인력을 든든하게 갖춘 빅테크 기업들 공세가 본격화되고 있다.

페이스북을 운영하는 메타는 9월 동영상을 자동으로 만들어주는 AI 프로그램 '메이크어비디오(Make-A-Video)'를 발표했다. 뒤질세라 구글도 바로 맞불을 놨다. 구글은 10월 텍스트를 동영상으로 변환하고 몇 초, 몇 분 분량 영상 콘텐츠를 생성할 수 있는 이메이진 비디오(Imagen Video)와 페나키(Phenaki)라는 생성 AI 모델을 선보였다. 관련 소스코드도 공개했다.

영상 생성 AI에 대해 마크 저커버그 메타 CEO는 "매우 놀라운 진전이다"면서 "영상을 생성하는 것은 사진보다 매우 어렵다. 픽셀을 적절하게 만드는 것 외에 생성 AI 시스템은 시간이 가면서 픽셀이 어떻게 바뀔지도 예측해야 한다"고 말했다.

생성 AI를 둘러싼 테크 기업들 움직임을 보면 딥페이크를 구현하는 기술적인 인프라가 점점 진화하고 있음을 체감하게 된다. 이런 가운데 부루스 윌리스가 딥페이크 전문 회사에 얼굴에 대한 권리를 팔았다는 보도가 나오면서 딥페이크에 대한 사람들 상상력은 점점 탄력을 받고 있다.

생성AI를 활용하면 일어나지 않았던 일들에 대한 영상과 사진을 만드는 것이 가능하다.  부루스 윌리스가 정말로 자신의 얼굴에 대한 권리를 팔았다면 영화에서 그의 모습을 계속 볼 수 있었을 것이다. 현실에선 실어증으로 은퇴한 브루스 윌리스지만 그의 디지털 트윈은 영화를 통해 다양한 모습으로 등장했을 것이다. 러시아 통신 회사인 메가폰(Megafon)은 지난해 선보인 광고에서 부루스 윌리스를 딥페이크에 실제 활용하기도 했다.

부루스 윌리스 딥페이크를 활용한 메가폰 광고 화면.
부루스 윌리스 딥페이크를 활용한 메가폰 광고 화면.

딥페이크를 통해 부루스 윌리스 얼굴을 계속 볼 수 있는 것은 팬들 입장에선 반길 만한 일이지만 기술이 항상 좋은 쪽으로만 쓰일 수는 없는 법. 딥페이크에 대해서도 가짜 정보가 더욱 기승을 부릴 기폭제가 될 수 있다며 우려하는 목소리가 나온지 오래다.

딥페이크를 활용한 사기도 이미 경계령이 내려졌다. 올해만 해도 유명 배우 로버트 패틴슨의 딥페이크 영상이 틱톡에서 확산됐고 엘론 머스크 테슬라 CEO 딥페이크 영상은 암호화폐 사기에 악용되기도 했다.

보안 전문가들은 소셜 엔지니어링를 활용한 사이버 공격에 딥페이크를 투입하는 사례가 늘어나는 것도 주목하는 모습이다. 미국 연방수사국(FBI) IC3(Internet Crime Complaint Center)은 온라인 인터뷰를 조작하려는 사기꾼들 활동이 증가하고 있다는 경고를 이미 내놨다.

딥페이크 기술을 활용해 진짜 같은 가짜가 확산되는 것에 대한 우려와 함께 딥페이크 때문에 진짜가 가짜 대접을 받는 시나리오를 우려하는 시각도 있다. 딥페이크에 대해 사람들이 많이 알게 되면서 이미지나 영상이 조금만 이상해도 딥페이크라는 오해를 받을 가능성이 커지고 있다는 얘기다.

MIT테크놀로지리뷰에 따르면  아프리카 가봉에선 진짜인데, 사람들이 가짜라고 의심하는 바람에 국가에 큰일이 생긴 결과로 이어진 사례가 있다.

2018년 말 가봉 국민들은 알리 봉고 대통령을 몇 개월 동안 공개석상에서 보지 못했다. 일부 사람들은 대통령이 아프다고 의심하기 시작했다. 심지어 죽었다고 보는 이들도 있었다. 의혹이 확산되는 것을 막기 위해 정부는 봉고 대통령이 타박상으로 고생했지만 건강한 상태라고 했고  관례대로 대통령이 새해 연설을 하는 영상도 공개했다.

하지만 영상이 공개된 이후 예상하지 못한 일이 벌어졌다. 많은 사람들이 영상에서 봉고 대통령의 눈이 이상하다 생각했고, 딥페이크라고 의심했다. 정부가 무언가 감추고 있다는 의심이 사람들 사이에서 확산됐다. 급기야 1주일 후 군부가 쿠데타를 시도하기에 이른다. 쿠데타는 성공하지 못했지만 봉고 대통령 영상이 일부 군인들이 쿠데타를 감행하는데 영향을 미쳤다고 MIT테크놀로지는 전하고 있다.

딥페이크 외에 칩페이크(cheapfakes)라는 말도 있다. 칩페이크는 딥페이크처럼 없는걸 만들어 내는 것이 아니라 있는걸 살짝 바꾸는 것을 의미한다. 사기라고 볼 수는 없지만 사람들에게 오해를 심어주기에는 오히려 더 효과적일 수 있다.이런 건 딥페이크를 찾아내는 기술로도 발견하기 힘든 경우가 많다는게 전문가들 지적이다.

빅테크 플랫폼들이 나름 한다고 하는데도 가짜 뉴스 문제가 쉽게 수그러들지 않는 것을 보면 딥페이크 부작용도 플랫폼 회사들이 알아서 잘 해결할 거라 낙관하기는 무리가 있어 보인다. 전문가들은 기술은 기본이고, 일반인들을 상대로한 미디어 교육, 저널리스트들 역할도 딥페이크이 몰고올 역기능을 최소화하는데 점점 중요한 변수가 될 것으로 보고 있다.

키워드

#AI #딥페이크
저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지