금융권에 인공지능(AI) 기술 적용이 늘고 있는 가운데 부작용에 대비해야 한다는 지적이 나오고 있다. [사진: 셔터스톡]
정부와 연구기관들의 인공지능(AI) 기술 신뢰성 확보 방안의 일환으로 ‘금융 분야 인공지능 신뢰성 확보 개발 안내서’ 개발이 추진된다. [사진: 셔터스톡]

[디지털투데이 강진규 기자] 정부와 연구기관들의 인공지능(AI) 기술 신뢰성 확보 방안 일환으로 ‘금융 분야 인공지능 신뢰성 확보 개발 안내서’ 마련이 추진된다. 이 안내서는 금융권 AI 개발의 기준이 될 것으로 예상된다.

27일 정부 관계자들에 따르면 한국정보통신기술협회(TTA)가 다음달부터 올해 12월까지 '금융 분야 인공지능 신뢰성 요구사항 도출 연구'를 추진한다.

앞서 올해 2월 24일 과학기술정보통신부, 정보통신정책연구원(KISDI), TTA는 ‘제1기 인공지능 윤리 정책 포럼’을 출범시켰다. AI 윤리와 신뢰성 확보를 위해 출범한 포럼은 ‘인공지능 윤리 자율점검표’와 ‘신뢰할 수 있는 인공지능 개발안내서’를 공개한 바 있다.

TTA는 연구를 통해 2월 발표된 개발안내서를 금융 분야에 적용해 보고 금융의 특성에 맞는 ‘금융 분야 인공지능 신뢰성 확보 개발안내서’를 작성할 계획이다. 금융 분야에서 활용되는 AI 사례 등을 통해 요구사항과 검증항목을 구체화하려는 것이다. 또 TTA는 개발안내서를 현장에 적용해보고 현장의 목소리와 전문가 의견도 수렴할 방침이다.

이와 함께 TTA는 금융 분야 개발안내서를 기반으로 AI 신뢰성 확보 컨설팅 가이드라인도 작성하고 이를 기반으로 실제 기업대상 컨설팅도 진행할 계획이다. 금융 분야의 AI 신뢰성 확보를 위한 개발, 컨설팅 모델을 만들게 되는 것이다.

최근 들어 금융권에서 AI 활용이 늘고 있다. 지난해 7월 하나은행은 AI 기술을 활용해 대출한도를 산출하는 기반으로 대출 상품을 출시했다. 8월에는 우리은행이 AI를 활용해 글로벌 금융시장의 주요 지표 예측 및 투자전략 수립과 상품을 관리하는 ‘AI시장예측시스템(Deep Sensing)’을 오픈했다.

NH농협은행은 올해 1월 AI 은행원 2명을 정규직원으로 채용하고 2월에는 근무부서 배치를 했다. 신한은행은 지난해 9월 AI 은행원을 선보였으며 올해 3월 AI 은행원의 금융 서비스 범위를 예·적금 신규, 신용대출 신청 등 총 40여개로 확대했다.

하지만 AI 도입 확대에 따른 우려의 목소리도 나온다. 일반적으로 딥러닝 기술이 활용되면서 AI가 왜 그런 결과, 결정을 내렸는지에 대한 의문이 제기되고 있다. 금융권에서 AI가 대출한도를 산정하거나 인사평가를 할 때 그 이유에 대해 문제가 제기될 수 있다. 

또 AI의 학습 데이터에 문제가 있을 경우 부적절한 결과가 나올 수도 있다. 대화형 AI에 사람들이 욕설과 조롱을 하면서 대화형 AI가 부적절한 용어를 학습한 사례가 있다. 이와 함께 AI가 통제 불가능해질 수 있다는 우려도 나온다.

이에 과학기술정보통신부, KISDI, TTA 등이 AI를 개발할 때부터 문제가 없도록 하기 위한 방안을 마련하는 것이다.

올해 연말까지 TTA의 연구결과가 나오면 그 내용이 금융 분야 AI 개발에 중요한 이정표가 될 것으로 예상된다. TTA는 1988년에 설립된 국내 유일의 정보통신 단체표준 제정기관이며 표준화 활동 및 표준 제품의 시험인증을 위해 만들어진 단체다. TTA에서 도출하는 내용을 IT기업들과 금융권에서 적극적으로 수용하게 될 것으로 예상된다.

한편 TTA는 AI 신뢰성 확보를 위한 정책 마련도 고민하고 있다. TTA는 오는 9월까지 ‘인공지능 신뢰성 확보를 위한 정책적 접근 방안 연구’도 진행한다. 인공지능 신뢰성 도입 및 확산을 위한 산업 지원 정책을 도출하겠다는 것이다.

TTA 관계자는 “인공지능 신뢰성 확보를 위한 기업지원과 컨설팅을 하고 있는데 그 외에 도움을 줄 수 있는 정책적 아이템이나 아이디어, 기획 등을 알아보려 한다“고 말했다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지