[사진: 셔터스톡]
[사진: 셔터스톡]

[디지털투데이 AI리포터] 애플이 대규모언어모델(LLM)의 예측 성능을 획기적으로 개선하는 기술을 개발하며, 코딩·수학 등 반복적인 작업에서 처리 속도를 최대 5배 향상시켰다는 소식이다.

8일(현지시간) IT매체 나인투파이브맥에 따르면, 애플 연구진은 '당신의 LLM은 미래를 안다: 다중 토큰 예측 잠재력 파헤치기'(Your LLM Knows the Future: Uncovering Its Multi-Token Prediction Potential)이라는 논문을 통해 새로운 멀티 토큰 예측(MTP) 프레임워크를 공개했다. 이를 통해 LLM이 다음 단어뿐만 아니라 여러 단어를 동시에 예측하도록 훈련했으며, 예측이 틀릴 경우 기존 방식으로 되돌아가는 하이브리드 구조를 적용해 정확도를 유지했다.

실험 결과, 오픈소스 모델 Tulu3-8B를 활용한 테스트에서 일반적인 질의응답과 채팅 작업에서 2~3배, 코딩과 수학 같은 예측 가능한 작업에서 최대 5배의 속도 향상이 확인됐다. 애플은 이를 위해 간단하면서도 효과적인 '게이티드 LoRA 적응'(Gated LoRA Adaptation) 기술을 적용해 품질 저하 없이 성능을 끌어올렸다.

이번 연구는 LLM의 처리 속도를 혁신적으로 개선하는 데 초점을 맞췄으며, 애플은 이를 통해 생성형 인공지능(AI)의 실시간 응답 능력을 한 단계 끌어올릴 계획이다.

저작권자 © 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지

관련기사