AI 경쟁력 강화 방안 곧 발표...거대 언어 모델이 핵심
[디지털투데이 백연식 기자] 과학기술정보통신부가 ‘챗GPT’ 열풍에 대응하기 위해 초거대 인공지능(AI) 정책 방향 수립 전략인 ‘초거대 인공지능(AI) 경쟁력 강화방안’을 조만간 발표한다. 과기정통부는 지난 5일 ‘초거대 AI 경쟁력 강화방안’ 사전 브리핑에 이어 6일 정식 발표하려 했지만, 이날 국정현안관계장관회의에 비공개 안건으로 올리면서 공개가 늦어졌다.
‘초거대 AI 경쟁력 강화방안’이 6일 국정현안관계장관회의에 비공개 안건으로 올라가면서 이종호 과기정통부 장관이 이날 참여 및 발표하려고 했던 ‘디지털 플랫폼 자율규제 성과보고회’ 및 ‘검색·추천 서비스의 투명성 제고를 위한 자율규제 원칙’ 발표 역시 연기됐다. (관련기사/[단독] 디지털 플랫폼 검색·추천 자율규제 원칙 나온다) ‘초거대 AI 경쟁력 강화방안’은 기존의 AI 개발을 위한 공공 인프라격인 ‘데이터댐’이나 ‘AI허브’ 공급 정책에서 벗어나 ChatGPT’ 방식인 초거대 언어모델(LLM·Large Language Model)에 대한 정책 방향일 것으로 예상된다.
11일 정부 당국에 따르면 과기정통부는 ‘초거대 AI 경쟁력 강화방안’을 늦어도 이번 주 안으로 공개할 예정이다. 기존 계획대로 이종호 과기정통부 장관이 직접 브리핑 하는 것이 유력하다. 그동안 정부는 AI 국가전략이나 디지털 뉴딜 전략을 통해 ‘데이터댐’과 ‘AI허브’에 집중했다. 일단 AI 개발에 필요한 데이터를 최대한 많이 모으고 이를 기업들이 쉽게 쓰도록 하기 위한 것이었다.
하지만 공급자 중심으로 전략을 세우다 보니 비효율적 데이터 수집과 낮은 데이터 품질로 이어졌다. 데이터의 경우 양보다 품질이 더 중요하다는 것이 업계의 공통적인 견해다. ‘AI허브’를 이용한 사업화 비율은 39%(2021년 11월 기준)에 불과한 것으로 알려졌다. 즉, 수요자 중심으로 전략이 세워져야 하는데 공급자 중심으로 설계되다 보니 기존의 정부 정책은 사실상 실패로 귀결됐다. 정부도 ‘ChatGPT’ 열풍에 ‘초거대 AI 경쟁력 강화방안’을 결국 발표하는데 수요자 중심의 대규모 정책 수정이 이뤄질 것으로 보인다.
정부는 ChatGPT와 같은 혁신적인 AI 서비스의 개발을 촉진하기 위한 제도기반 및 지원체계도 구축한다. 초거대 AI 개발을 위한 데이터분석에 저작물 이용이 가능하도록 저작권법 개정을 추진한다. 또 중소기업·대학 등에 초거대 AI 모델 활용을 지원한다. 올해 100여개 과제를 지원할 계획이다.
과기정통부의 로드맵에 따르면 AI 개발·보급과 관련해서는 우선 올해까지 AI 학습용 데이터를 구축하고 AI 바우처 지원범위를 확대한다. 내년에는 전국민 AI 일상화 프로젝트를 추진하고, 2026년까지는 사람중심 AI를 개발한다. 이후 2029년까지 범용 AI 개발을 목표로 한다.
정부가 지난 1월 발표한 인공지능(AI) 일상화 및 산업 고도화 계획(안)에 따르면 AI는 언어・음성・시각 등 단일지능 중심에서 복합지능・초거대AI로 발전하고 있고, 차세대 AI(소량데이터로 학습, 설명가능한 AI) 연구가 가속화되고 있다. 작년 11월 미국 오픈 AI에서 출시한 ChatGPT는 일상대화, 높은 수준의 작문, 소프트웨어(SW) 코딩이 가능하다.
미국 등 전세계에서는 대규모 데이터, 컴퓨팅자원을 바탕으로 다양한 단일 감각지능 고도화 및 복합적 활용이 가능한 초거대 AI 개발이 활발하게 진행되고 있다. 초거대 AI 모델로 GPT-3(오픈AI ,1750억개 파라미터), MT-NLG(MS-NVIDIA, 5300억개), Switvh 트랜스포머 (구글, 1조7500억개), 우다오 2.0(베이징인공지능연구소, 1조7500억개) 등이 있다.
정부 설명에 따르면 단일 지능의 경우 전통적으로 RNN(Recurrnet Neural Network) 방식이 주류였으나, 2017년 이후 트랜스포머(Transformer, 구글) 방식 적용이 확대되고 있다. 데이터를 순차처리(단어 순서) 하던 RNN에 비해 트랜스포머는 병렬처리로 처리속도 향상, 대규모 데이터의 학습을 가능하게 한다. 트랜스포머 모델은 문장 속 단어와 같은 순차 데이터 내의 관계를 추적해 맥락과 의미를 학습하는 신경망이다. 구글의 BERT, 오픈AI의 GPT3 등이 트랜스포머를 기반으로 개발됐다.
시각적인 측면에서도 전통적으로 CNN(Convolutional Neural Network) 방식이 주류였으나, 2021년 이후 비전 트랜스포머(구글) 방식 연구가 확대 추세에 있다. 트랜스포머 방식은 이미지를 분할해 병렬 분석하는 구조로 대규모 데이터로 사전 학습을 할수록 좋은 성능을 내는 특성이 있다. 단, 크지 않은(중간 이하 사이즈) 데이터로 학습 시 CNN 보다 성능이 떨어지는 특성이 있다. 트랜스포머는 대규모 데이터 학습에 적합한 방식이나 데이터가 작으면 성능한계가 있어 업계는 아직 기존 RNN, CNN도 다수 사용 중이다. BERT, GPT 등 언어 사전학습모델을 특정 영역·상황에 활용할 수 있도록 미세 조정(Fine Tuning)하여 사용하는 방식도 확산(월마트 대화형 AI비서는 BERT 사용)되고 있다.
복합 지능의 경우 트랜스포머 기반으로 개발되고 있다. 복합 지능이란 인간처럼 다양한 정보(텍스트, 영상 등)를 포괄적으로 학습·이해하고, 새로운 정보도 생성할 수 있는 지능을 말한다. 현재 텍스트, 이미지를 개별적으로 학습시킨 후 덱스트 기반의 이미지 생성, 이미지를 텍스트로 표현하는 기술이 발표됐다. 오픈AI의 DALL-E 2는 ‘체스 두는 고양이’ 같은 기존에 없던 이미지 생성이 가능하다. 알리바바의 ‘mPLUG’는 이미지와 문장을 학습한 결과 제로샷 이미지 캡션이 가능하다. 텍스트·이미지·음성 등을 복합적으로 학습시켜 멀티 모달 데이터를 동시에 처리 할 수 있는 복합지능 연구는 아직 기초연구 단계에 있다.
정부는 AI 모델 개발을 위해서 ▲고성능 컴퓨팅 자원(반도체 등으로 구성), ▲대규모 데이터 및 ▲AI 개발 플랫폼 등이 필요하다고 보고 있다. 초거대 인공지능 등 컴퓨팅 수요가 급증함에 따라 고성능 저전력 AI 반도체를 이용해서 컴퓨팅 효율성을 높여 나가는 추세이기 때문이다. 정부도 고성능 저전력 AI 반도체 개발에 힘을 기울이고 있다. 이에 따라 ‘초거대 AI 경쟁력 강화방안’에 고성능 저전력 AI 반도체 개발 내용 역시 담길 것으로 관측된다.