Motif Technologiesは1月20日、韓国科学技術情報通信部が近く実施する「独自AI基盤モデル」の追加公募に応募する方針を明らかにした。既存のコンソーシアムに加え、新たな参画企業との協議も進めており、自社技術の独自性を示す考えだ。
同社は2025年7月に組成したコンソーシアムを軸に応募準備を進めている。これと並行して新たな参画企業との協議も進めており、高性能のLLM(大規模言語モデル)とLMM(大規模マルチモーダルモデル)の両方を基盤モデルとして開発してきた実績を前面に打ち出す。
同社によると、2025年11月に公開したLLM「Motif 12.7B」は、モデルの設計からデータ学習までを自社で手掛けたモデルだ。既存のトランスフォーマー構造をそのまま採用するのではなく、独自開発した「Grouped Differential Attention(GDA、グループ別差分アテンション)」を適用した点を特徴としている。
同社は、このモデルについて、単なるフルスクラッチ学習にとどまらず、モデル性能の中核を担うアテンション機構とアーキテクチャそのものを新たに設計したものだと強調した。
著者について