경찰청 본청 [사진: 연합뉴스]
경찰청 본청 [사진: 연합뉴스]

[디지털투데이 강진규 기자] 챗GPT 등 생성형 인공지능(AI) 서비스가 확산하면서 그를 활용한 새로운 범죄 형태가 나타날 수 있다는 우려가 제기됐다.

27일 정부 관계자들에 따르면 경찰청 국가수사본부는 동국대학교 산학협력단를 통해 지난해 12월까지 ‘대화형 인공지능 챗봇 서비스 상용화에 따른 사이버범죄 대응 방안 연구’를 진행했다.

경찰청은 최근 생성형 AI 활용이 빠르게 늘어나고 있는 상황에서 법 규제의 공백이 발생하고 생성형 AI를 악용한 사이버범죄가 나타날 수 있다는 점을 우려해 연구를 진행했다. 경찰청은 동국대 연구진을 통해 오픈AI의 챗GPT를 비롯해 구글, 네이버, 카카오, 메타, 마이크로소프트(MS), 아마존, 알리바바 등이 개발하고 있는 생성형 AI 기술 현황을 파악했다. 또 국내외의 생성형 AI 관련 법규와 규제 현안도 분석했다.

특히 경찰청은 생성형 AI와 관련해 발생할 수 있는 범죄 유형을 분석한 것으로 알려졌다. 첫 번째로 생성형 AI 서비스를 이용한 범죄를 분석했다. 범죄자들이 생성형 AI를 통해 범죄에 필요한 정보를 확인하거나 대화형 서비스를 피싱 같은 범죄에 악용해 피해자들을 현혹할 수 있다는 것이다.

두 번째는 생성형 AI 서비스를 침해하는 범죄 유형이다. 기업, 기관, 개인의 생성형 AI 서비스 활용이 늘고 있는 상황에서 시스템 취약점을 악용해 서비스를 이용하지 못하도록 방해하거나 오류가 나도록 할 수 있다는 것이다.

이같은 두 가지 범죄 유형은 이미 전문가들이 예측하고 대응 방안을 고민하고 있는 방식이다. 첫 번째 유형은 범죄자의 생성형 AI 사용 내역 등을 확인하는 방식으로, 두 번째 유형의 조사는 데이터와 로그 분석으로 조사를 할 수 있다고 한다. 또 생성형 AI 개발회사, 서비스 회사가 악의적인 사용을 금지하고 사용자 의무를 규정하며 보안을 강화하는 방식으로 대응할 수 있다.

이번 연구에서는 새로운 형태의 사이버범죄인 세 번째 유형에 대한 우려가 제기된 것으로 알려졌다. 어둠의 생성형 AI 서비스가 악의적으로 개발돼 법망을 벗어나 있는 다크웹에서 제공될 수 있다는 것이다. 연구진들은 다크 챗GPT가 혐오 발언 생성하거나 거짓 정보를 제공해 사람들의 명예훼손을 할 수 있고 최악의 경우 사람들의 극단적 선택을 유도할 수도 있다고 우려했다. 다크 챗GPT가 만약 실제로 등장한다면 범죄 조언은 물론 해킹, 개인정보 유출 등에 악용될 가능성도 있다. 

다크 챗GPT는 AI이기 때문에 범죄에 대한 법적 책임 문제가 복잡해질 수 있다고 지적이다. 범죄자가 다크 챗GPT를 개발했다고 해도 명예훼손을 직접 지시하거나 직접 시행한 것이 아니기 때문이다. 개발자를 처벌하기 위해서는 생성형 AI의 악의적 개발을 막는 법적인 토대부터 마련돼야 한다.

연구진은 법 규정 정비에 앞서 다크 챗GPT가 나타날 경우에 대비해 온라인 커뮤니티와 다크웹 등을 모니터링하고 확인 즉시 서비스를 차단해 국민들의 접촉을 막는 방안을 강구해야 한다고 지적했다.  

경찰청은 이번 연구에서 생성형 AI를 경찰 수사와 업무 등에 활용하는 방안도 함께 분석한 것으로 알려졌다.

경찰청은 이번 연구 내용의 민감성을 고려해 최종보고서를 내년까지 비공개하기로 했다. 내년에 재검토를 통해 공개 여부를 결정할 방침으로 알려졌다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사