오픈AI가 개발한 챗GPT 서비스 [사진: 오픈AI]
오픈AI가 개발한 챗GPT 서비스 [사진: 오픈AI]

[디지털투데이 강진규 기자] 국가정보원은 챗GPT 등 생성형 인공지능(AI) 기술 활용 과정에서 발생할 수 있는 보안 문제를 사전 예방하기 위해 보안 가이드라인을 마련 중이라고 11일 밝혔다. 

이와 관련해 국정원은 6월 9일 관련 분야 산학연 전문가 의견 청취를 위해 국가 사이버안보 민관 협의체 회의를 개최했다.

이번 국정원의 보안 가이드라인 제정 및 전문가 의견 청취는 관련기술 활용 과정에서 업무상 비밀, 개인정보 유출, 가짜뉴스 및 비윤리적 자료 생성 등 기술 악용 우려가 제기돼 온 가운데, AI기술을 통해 행정업무 효율화를 달성하려는 정부기관들을 지원하기 위한 것이다.

최근 미국과 유럽연합은 정부 차원에서 챗GPT 사용 시 부작용 방지를 위한 ‘AI 행동강령’ 제작에 착수했고, 이탈리아 정부는 ‘정보보호’ 명목으로 챗GPT 접속을 차단했다가 운영사의 보안조치 시행을 확인한 뒤 접속을 재개하기도 했다. 

국정원은 지난 4월부터 국가보안기술연구소 및 학계 전문가 합동으로 챗GPT 등 생성형 AI 기술 활용 보안 가이드라인 제정에 착수한 바 있다. 가이드라인에는 생성형 AI 기술 개요 및 보안위협, 안전한 AI 기술 사용 방안, 기관 정보화사업 보안대책 등의 내용이 담겨있다.

회의에는 국가 사이버안보 민관 협의체 소속 AI 기술 및 정보보안 전문가는 물론 행정안전부, 교육부 등 각 부처 정보보안 담당자 등 60여명이 참여했다. 

국정원은 국가기관에서 AI 기술 사용 시 민간기술 등을 활용해 정부 차원 AI 모델을 행정업무망 내부에 자체 구축하는 형태가 돼야 한다며 정부기관들의 AI시스템 구축 시 고려사항을 제시했다.

국정원 관계자는은 “이날 논의된 내용과 기관별 애로사항을 반영해 이달 중 전체 국가공공기관 및 지자체에 보안가이드라인을 배포할 계획”이며 “앞으로 지속 등장하는 IT 신기술에 대한 보안대책을 적시 마련해 각급기관의 안전한 정보통신기술 활용을 지원할 방침”이라고 말했다.

 

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사