[디지털투데이 AI리포터] 구글이 초소형 임베딩 모델 '임베딩젬마'(EmbeddingGemma)를 발표했다.
5일(현지시간) 온라인 매체 기가진에 따르면, 이 모델은 3억개의 파라미터를 갖추고 있으며, 메모리 사용량은 200메가바이트(MB)에 불과하다. 이를 통해 모바일 기기에서도 원활히 동작할 수 있다.
임베딩젬마는 약 1억개의 모델 파라미터와 2억개의 임베딩 파라미터로 구성되며, 검색 확장 생성(RAG) 및 시맨틱 검색을 지원하는 애플리케이션 구축이 가능하다. 구글은 "임베딩젬마는 100개 이상의 언어를 지원하며, 양자화 기술을 적용해 200MB 미만의 램(RAM)에서 실행할 수 있도록 최적화했다"고 설명했다.
또한, 벤치마크 테스트 'MTEB'에서 5억개 미만 파라미터를 가진 오픈 멀티랭귀지 텍스트 임베딩 모델 중 최고 점수를 기록했다고 덧붙였다. 구글은 이 모델이 2배 크기의 다른 모델과 유사한 성능을 발휘한다고 강조했다.
이 모델은 구글 개발자 블로그, 허깅페이스(Hugging Face), 카글(Kaggle), 버텍스 AI(Vertex AI)에서 다운로드 가능하며, 통합 방법은 구글 문서를 통해 확인할 수 있다. 구글은 해당 모델로 하여금 모바일 및 PC 환경에서 고품질 RAG 애플리케이션 개발을 가속화할 것이라고 기대감을 나타냈다.
EmbeddingGemma is our new best-in-class open embedding model designed for on-device AI.
At just 308M parameters, it delivers state-of-the-art performance while being small and efficient enough to run anywhere - even without an internet connection. pic.twitter.com/QGDmTkOb1I
— Google DeepMind (@GoogleDeepMind) September 4, 2025
SNS 기사보내기
관련기사
- 메타, 차세대 라마 AI 개발 박차…연말 출시 목표
- 구글 웨더랩, 허리케인 예측에서 전통 기상 모델 능가
- 구글, 나노 바나나 개발사 공식 확인…제미나이 2.5 플래시 이미지 공개
- AI 시장 뒤흔든 생성형 이미지 모델 '나노 바나나'…배후는 구글?
- 메타 AI 전략 재편…'TBD 랩스' 신설로 경쟁력 강화
- 메타, 다이노v3 발표…17억장 이미지 학습한 AI 모델 등장
- 오픈AI, 오픈소스 모델 GPT-oss 공개…중국 견제
- 구글 "오픈웹 몰락 중"…AI 광고 논쟁 불붙였다
- 구글, AI 리터러시 사이트 공개…학생·교사·가족 위한 맞춤형 교육 제공
- 구글 '젠킷 고 1.0' 출시…AI 앱 개발자 위한 강력한 도구

