AI 확산의 그늘?...커지는 사이버심리전 우려

챗GPT, 딥페이크 등 활용 사회혼란, 선거개입 가능성

2023-02-24     강진규 기자
딥페이크 기술을 이용한 사이버위협을 우려하는 목소리가 높아지고 있다. [사진: 셔터스톡]

[디지털투데이 강진규 기자] 챗GPT, 딥페이크 등 인공지능(AI) 기술이 급속히 확산하고 있는 가운데 AI를 이용한 사이버심리전이 새로운 보안 위협으로 작용할 수 있다는 우려가 나오고 있다.

최근 외교부 소속 외교안보연구소는 사이버 위협의 추세와 향후 전망을 내놨다. 

송태은 외교안보연구소 조교수는 “2023년에는 AI 기술의 발전과 맞물려 딥페이크 영상을 사용한 허위조작정보 유포 활동이 한층 증대할 것으로 예측되고 있고 허위조작정보의 유포가 국가 배후의 활동으로 의심되는 상황이 선거철에 발생할 경우 국가 간 심각한 외교 갈등으로 발전될 가능성이 있다”고 지적했다.

딥페이크는 AI로 특정 영상에 특정 인물의 얼굴, 음성 등을 합성하는 것을 뜻한다. AI 발전으로 딥페이크가 정교해지면서 정치인, 유명인사 등의 위장한 딥페이크 영상 제작이 우려되고 있다.

송 조교수는 “소셜미디어 플랫폼에서 인공지능의 내러티브 기술 및 대규모 정보전달 기술을 동원하여 확산되고 있는 허위조작정보는 최근 국가 안보 차원에서 적극적으로 다뤄지고 있다”며 “사이버 공간에서의 허위조작 정보의 위협에 대한 경각심이 비서구권에서도 높아지고 대응책이 활발하게 논의되고 있는 바 2023년에는 다양한 국내 법 제도적 대응책이 한국을 포함한 다양한 국가에서 마련될 것으로 보인다”고 설명했다.

이런 우려는 단순한 기우가 아니다. 지난해 11월 국회입법조사처는 ‘인공지능(AI) 기술 기반 딥페이크 선거운동의 해외 입법동향과 시사점’ 보고서를 통해 AI 기술이 선거에 활용되는 사례가 점차 늘고 있다고 지적했다.

입법조사처는 “공직선거에서 인공지능에 기반한 딥페이크 기술의 활용은 디지털 환경하에 선거운동 방식의 다양성을 확대한다는 측면에서는 의미가 있다. 하지만 민주적 정치과정에서 딥페이크 기술을 이용한 후보자의 부적절한 행동이나 사회적 논란이 될 수 있는 내용을 담은 허위 매체물은 선거 결과를 왜곡시킬 수 있는 문제가 있다”며 “특히 국내와 같이 진영 간 정치적 양극화 및 편향적인 정치정보의 소비가 심화된 정치사회적 환경에서는 딥페이크를 통한 기만적인 정치정보가 확대 재생산돼 선거에 악용될 여지도 매우 크다”고 우려했다.

실제로 지난 2020년 미국 대통령 선거에서 조 바이든 대통령이 선거유세를 하면서 주를 오인하는 듯 한 허위동양성이 제작돼 유포된 사례도 있다.

전문가들은 현재 딥페이크 기술이 얼굴, 음성 등을 조작하는 수준이지만 챗GPT 등을 결합할 경우 그럴듯한 가짜 대본까지 나올 수 있다고 보고 있다. 

또 지난 2021년 5월 국가정보원 국제범죄정보센터는 딥페이크를 이용한 사이버범죄 가능성을 경고했다. 전 세계 범죄조직들이 딥페이크 기술을 이용해 피해자의 가족, 지인을 사칭한 후 금품을 갈취하거나 피해자의 사진으로 음란물 등을 만들어 협박하는 사례가 나타나고 있다는 것이다. 당시 국정원은 실제로 국내 피해자가 소셜네트워크서비스(SNS)에서 합성된 음란물로 협박을 받은 사례가 있다고 밝혔다.

AI 기술의 발전이 새로운 사이버위협, 사이버범죄 위협 가능성도 높이고 있는 것이다. 전문가들은 해커, 범죄자 등이 AI를 적극적으로 활용할 경우 지금까지와는 차원이 다른 위협이 될 수 있다고 경고하고 있다.