DeepSeek(写真=Shutterstock)

中国のAIスタートアップDeepSeekは、新たな推論効率化技術「Engram」に関する論文を公表した。反復的に必要となる事実情報を外部メモリから参照することで計算コストを抑える仕組みで、次世代モデル「V4」への適用可能性も示した。

The Informationなど海外メディアの報道によると、論文の著者には創業者のリャン・ウェンフォン(Liang Wenfeng)氏のほか、DeepSeekの研究チームと北京大学の研究者が名を連ねた。

Engramは、各国の首都や歴史的事件の発生年といった事実情報を、その都度モデル内部で計算し直すのではなく、外部メモリから条件に応じて参照する「lookup」方式で取得する技術とされる。

従来の生成AIモデルでは、こうした情報も推論のたびに内部で再構成する必要があり、計算負荷が膨らみやすかった。Engramはこの負荷を抑えることで、より多くの計算資源を高次の推論に振り向けられるようにする。特に大規模言語モデル(LLM)の運用効率向上に有利で、複数の対話セッションや連続した指示処理でも、応答速度と正確性の改善が期待できるとしている。

DeepSeekは、この技術を次世代モデル「V4」に適用する可能性も示唆した。V4は、昨年12月に公開した「V3」の後継モデルとされ、コード生成機能を大幅に強化したという。公開時期は2月の春節連休の前後になる見通しだ。

同社は論文の公表に合わせ、Engramの実装コードをGitHubで公開した。オープンソースのエコシステムとの連携も強化する方針とみられる。

キーワード

#DeepSeek #Engram #人工知能 #LLM #GitHub
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.