![[자료 : 과기정통부]](https://cdn.digitaltoday.co.kr/news/photo/202105/402375_401284_5515.jpg)
[세종=디지털투데이 백연식 기자] 혐오 발언 학습으로 문제가 돼 서비스가 중단된 인공지능(AI) 챗봇 ‘이루다’ 같은 사례의 재발 방지를 위해 정부가 신뢰할 수 있는 AI 실현전략을 마련했다. AI가 스스로 편향성을 진단하고 제거하는 원천기술을 개발하는 것이 전략의 핵심이다. AI 업체는 서비스를 제공하기 전 AI의 활용 여부 고지가 의무화된다.
정부는 또 AI가 국민생활에 미치는 영향을 평가하기 위해 ‘사회적 영향평가’를 도입하고, 최근 ‘이루다 사태’로 ‘AI 기업을 인증하는 제도가 필요하다’는 요구가 증가함에 따라, 민간 자율 인증제도 도입을 논의 중이다. 정부는 이같은 3대 전략과 세부 10대 실행과제를 관계부처 합동으로 2025년까지 단계적으로 추진할 계획이다.
과학기술정보통신부는 13일 대통령 직속 ‘4차산업혁명위원회 제22차 전체회의’에서 사람이 중심이 되는 인공지능을 위한 실현전략을 발표했다.
기술적으로는 2026년까지 총 295억 원을 투입해 ‘설명가능’ ‘공정’ ‘견고’ 등 3개 분야에서 원천기술을 개발한다. 이를 통해 기존 시스템에 설명가능성 기능을 추가하고, AI가 스스로 편향성을 진단하고 제거하도록 할 계획이다.
제도적으로는 AI 법·제도 규제 정비 로드맵이 마련된 만큼 민간의 책임을 강화하고 규제의 불확실성을 최소화할 수 있도록 제도를 신속하게 정비할 방침이다. 이를 위해 정부는 민간의 자율성을 저해하지 않는 수준에서 글로벌 입법 동향과 AI의 사회적·산업적 파급력과 기술 수준 등을 여러 각도로 검토해 제도 개선의 범위와 대상을 명확히 하기로 했다.
윤리적으로는 ‘카카오 알고리즘 헌장’ ‘네이버 인공지능 윤리’ 등 IT 기업을 중심으로 민간 차원에서 윤리원칙을 수립하기 위한 노력이 이뤄지고 있다. 정부는 이를 토대로 사회 전반에 건전한 AI 의식이 확산할 수 있도록 AI 윤리교육 과정을 개발해 교육을 실시하고, AI 윤리 실천지침 체크 리스트를 보급하며, AI 윤리를 토의하고 의견을 수렴할 수 있는 윤리 정책플랫폼을 운영할 예정이다.
이번 전략은 민간이 자율적으로 신뢰할 수 있는 지원체계를 구축하고, 스타트업에 대한 지원책도 담았다.
우선, AI 제품·서비스 구현단계별 신뢰 확보 체계를 마련한다. AI 제품 구현 단계가 개발→ 검증→ 인증으로 진행됨에 따라, ‘개발’ 단계에서는 국내·외 신뢰성 관련 법 제도·윤리·기술적 요구사항을 확인할 수 있는 ‘개발 가이드북’을 제작·보급한다. ‘검증’ 단계에서는 개발 가이드북을 준수한 신뢰성 확보 여부와 수준을 평가할 수 있는 검증절차·항목·방법 등 ‘검증체계’를 제시한다. ‘인증’ 단계에서는 기술·윤리적 요구사항을 충족해 검증체계를 통과한 제품·서비스에 대해 민간 자율 인증과 공시를 추진한다.

과기정통부는 또 기술·재정적 상황이 열악한 스타트업도 신뢰성을 확보해 나갈 수 있도록 AI를 위한 ‘데이터 확보→ 알고리즘 학습→ 검증’을 통합 지원하는 플랫폼을 운영한다. 학습용 데이터와 컴퓨팅 자원을 지원 중인 ‘AI 허브(Hub)’ 플랫폼에서 신뢰 속성별 수준 분석, 실(實)환경 테스트 등 기능을 추가 개발해 일괄 지원한다.
AI의 설명가능성, 공정성, 견고성 제고를 위한 원천기술 개발도 추진한다. 우선, AI 학습용 데이터의 신뢰성을 제고하기 위해 민관이 AI 학습용 데이터 제작공정에서 준수해야할 신뢰 확보 검증지표 등 표준 기준을 민간과 함께 마련한다. '데이터 댐' 사업에서는 구축 전 과정에서 저작권, 개인정보보호와 같은 법·제도 준수 여부 등 신뢰성 확보 고려사항을 선제적으로 적용한다.
고위험 AI에 대한 신뢰 확보도 추진한다. 국민의 안전에 잠재적 위험을 미칠 수 있는 고위험 AI의 범주를 설정하고, 서비스 제공 전 해당 AI의 활용 여부를 이용자에게 고지할 계획이다. 고지 이후, 해당 AI 서비스에 대한 ‘이용 거부’나 AI의 판단 근거에 대한 ‘결과 설명’ 및 ‘이의제기’ 등 제도화를 중장기적으로 검토할 계획이다. 또 사회적 영향평가를 통해 안정성·투명성 등 신뢰성 요소를 토대로 AI 영향력을 종합 분석해 AI 정책이나 기술·관리적 조치방안 수립 시 활용할 계획이다.
AI 신뢰 강화를 위한 제도 개선에도 나선다. 지난해 '인공지능 법·제도·규제 정비 로드맵'을 통해 발굴된 과제 중 ▲업계 자율적 알고리즘 관리·감독환경 조성 ▲플랫폼 알고리즘 공정성·투명성 확보 ▲영업비밀 보장을 위한 알고리즘 공개기준 마련 ▲고위험 기술기준 마련 등 관련 제도를 개선할 계획이다.
건전한 AI 의식 확산을 위해 AI 윤리교육 총론을 마련하고, 연구·개발자, 일반시민 등 맞춤형 윤리 교육을 개발·실시한다. 또 AI 윤리기준에 대한 행위지침으로, 연구·개발자, 이용자 등이 윤리 준수 여부를 자율점검할 수 있는 체크리스트를 개발·보급하기로 했다.
또 윤리 정책 플랫폼을 운영해 학계·기업·시민단체·공공 등 구성원이 참여해 AI 윤리에 대해 심도 깊게 토의하고 발전방향을 논의하는 공론의 장을 마련한다.
최기영 과기정통부 장관은 “최근 발생한 챗봇 사건은 우리 사회가 AI의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다”며, “과기정통부는 기업·연구자 등이 AI 제품·서비스 개발 과정에서 혼란을 겪거나 국민이 피해를 보지 않도록 AI 신뢰 확보 기준을 명확화하고, 재정적으로 부족한 중소기업이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련해 나갈 것”이라고 말했다.

