데이터브릭스가 공개한 DBRX가 기존 오픈소스 모델보다 뛰어난 성능을 자랑한다. [사진: 데이터브릭스]
데이터브릭스가 공개한 DBRX가 기존 오픈소스 모델보다 뛰어난 성능을 자랑한다. [사진: 데이터브릭스]

[디지털투데이 AI리포터] 데이터 및 AI 기업 데이터브릭스(Databricks)가 오픈소스 거대언어모델(LLM) 'DBRX'를 공개했다고 28일(현지시간) 일본 IT미디어가 전했다.

이는 오픈소스 프로젝트 메가블록스를 기반으로 한 전문가 혼합(MoE) 모델로 기존 오픈소스 LLM 모델보다 훈련 속도와 연산 효율이 2배 이상 빠른 것으로 알려졌다.

데이터브릭스에 따르면 DBRX는 1320억개의 파라미터로 표준 업계 벤치마크에서 메타의 라마(LLaMa)2의 2배 크기라고 한다. 또 언어 이해, 프로그래밍, 수학, 논리 벤치마크 등에서 뛰어난 성과를 보였으며 일부 벤치마크에서는 GPT-3.5보다 높은 성능을 기록하기도 했다.

DBRX는 엔비디아의 GPU 모듈인 H100을 3072대 사용해 3개월간의 훈련을 거쳐 피드백을 통해 품질과 안전성을 개선했다. 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 연구와 상업적 용도로 무료 사용이 가능하다. 이외에도 아마존웹서비스(AWS)와 구글클라우드, 마이크로소프트 애저(Azure)에서도 직접 사용할 수 있다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지