[디지털투데이 AI리포터] 구글이 초소형 임베딩 모델 '임베딩젬마'(EmbeddingGemma)를 발표했다.

5일(현지시간) 온라인 매체 기가진에 따르면, 이 모델은 3억개의 파라미터를 갖추고 있으며, 메모리 사용량은 200메가바이트(MB)에 불과하다. 이를 통해 모바일 기기에서도 원활히 동작할 수 있다.

임베딩젬마는 약 1억개의 모델 파라미터와 2억개의 임베딩 파라미터로 구성되며, 검색 확장 생성(RAG) 및 시맨틱 검색을 지원하는 애플리케이션 구축이 가능하다. 구글은 "임베딩젬마는 100개 이상의 언어를 지원하며, 양자화 기술을 적용해 200MB 미만의 램(RAM)에서 실행할 수 있도록 최적화했다"고 설명했다.

또한, 벤치마크 테스트 'MTEB'에서 5억개 미만 파라미터를 가진 오픈 멀티랭귀지 텍스트 임베딩 모델 중 최고 점수를 기록했다고 덧붙였다. 구글은 이 모델이 2배 크기의 다른 모델과 유사한 성능을 발휘한다고 강조했다.

이 모델은 구글 개발자 블로그, 허깅페이스(Hugging Face), 카글(Kaggle), 버텍스 AI(Vertex AI)에서 다운로드 가능하며, 통합 방법은 구글 문서를 통해 확인할 수 있다. 구글은 해당 모델로 하여금 모바일 및 PC 환경에서 고품질 RAG 애플리케이션 개발을 가속화할 것이라고 기대감을 나타냈다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사