[사진: 셔터스톡]
 [사진: 셔터스톡]

[디지털투데이 황치규 기자]오픈AI가 14일(현지시간) 챗GPT와 빙 검색 엔진에 투입되는 최신 AI 거대 언어 모델(LLM) GPT-4를 발표했다.

회사 측에 따르면  GPT-4는 높은 정확성으로 어려운 문제들을 풀 수 있고 텍스트 뿐만 아니라 이미지 입력도 분석할 수 있다. 분석 결과는 텍스트로만 나온다. 현재 챗GPT에 투입된 GPT 3.5 버전의 경우 텍스트 입력에 대해서만 대응할 수 있다. 

하지만 여전히 폭력적이고 해로운 텍스트를 생성할 수 있다는 점에 대해서도 회사측은 경고하고 있다.

현재 GPT4는 오픈AI가 월 20달러에 내놓은 챗GPT 유료 구독 서비스인 챗GPT 플러스와 마이크로소프트 빙 검색엔진에서 이용할 수 있다. 개발자들도 애플리케이션 프로그래밍 인터페이스(API) 형태로 접근할 수 있을 것이라고 회사측은 설명했다. 오픈AI는 듀링고, 스트라이프, 칸 아카데미 등 많은 회사들과 GPT-4를 제품에 통합하기 위해 협력 중이다. 

연구 블로그에 올린 글에서 오픈AI는 많은 테스트들과 벤치마크들에서 GPT-4 시스템 성능이 개선됐다는 점을 강조했다. 마국 변호사 시험(Uniform Bar Exam), LSAT(법학대학원 입학시험, Law School Admission Test), SAT 수학(Math),  증거기반 독해 및 작문(EBRW·Evidence-Based Reading and Writing) 시험에서 GPT-4는 상위 88% 분위 이상 점수를 받았다는게 오픈AI 설명이다.

그동안 GPT-4와 관련한 텍스트와 이미지 외 입력 방식도 지원할 것이란 관측이 있었지만 이번에는 이미지만 추가됐다. 그럼에도 텍스트와 이미지 동시 분석을 지원하면서 GPT-4는 보다 복잡한 입력을 가능해질 전망이다.

일각에선 GPT-4와 관련해 GPT-3.5 대비 거대한 도약이 있을 것이란 관측도 있엇는데, 오픈AI 발표를 보면 개선은 (한번에 가능해지는 것이 아니라) 보다 반복적으로 이뤄질 것 같다고 더버지는 전했다.

키워드

#오픈AI #AI #GPT-4
저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사