独自のAI基盤モデルを開発するMotif Technologiesは、NVIDIAの上位ソフトウェア群に依存せず、自社開発ツールでLLMの構築・運用を進めている。GPUとCUDAは活用する一方、開発基盤は内製化し、自由度と費用対効果で差別化する戦略だ。
背景にあるのは、NVIDIAが提供する汎用ツールをそのまま使うだけでは、計算資源で優位に立つビッグテックに対抗しにくいとの判断だ。同社は、自社ツールによってLLMをより効率的に開発・運用することに注力している。
イム・ジョンファンMotif Technologies代表は22日、ソウルのD.CAMPマポで開かれた「NVIDIA Nemotron Developer Days Seoul 2026」のパネル討論に登壇し、NVIDIA製ツールを採用せず独自開発を選んだ理由として「自由度」を挙げた。
同氏は、NVIDIAのツールは開発者の裁量が限られ、結果としてNVIDIAのエコシステムに囲い込まれやすいと指摘した。
CUDAは、AIモデルの学習に必要な大規模計算を効率よく処理できることから、AI開発の事実上の標準として定着している。ただ、動作するのはNVIDIA製GPUに限られる。NVIDIAはこのCUDAを基盤に、学習向けフレームワークのNeMoやMegatron-LM、推論最適化ツールのTensorRT-LLM、データ精製向けのNeMo Curatorなどを展開しており、GPU導入とあわせてこれらのソフトウェアを使うケースが業界で広がっている。
実際、基盤モデルを手掛ける他社の多くはNVIDIA製ツールを活用している。SK Telecomは超大規模モデル「A.X K1」の学習にMegatron-LMとNeMo Curatorを採用し、LG AI Researchは「EXAONE」の開発全体でNeMoフレームワークとTensorRT-LLMを利用した。
もっとも、Motif TechnologiesがNVIDIAのハードウェアやCUDAそのものを否定しているわけではない。イム代表は「iPhoneは使っても標準メモは使わないのと似ている」とした上で、「GPUもCUDAも使うが、その上で提供されるモデル開発ツールは使わない」と説明した。
同氏は「モデル開発の観点からNVIDIAのソフトウェアを使うと、NVIDIAが支援するアーキテクチャや方法論に沿わざるを得なくなる」と語る。「NeMo系ソフトウェアに合わせるためのコード修正にも時間がかかり、内部の分岐処理も多い。それなら自分たちで直接実装した方がいいと判断した」と述べた。
同社は、こうした独自ソフトウェア戦略が競争力のあるLLM開発につながるとみている。イム代表は「アーキテクチャとデータ、方法論が同じなら、計算資源の少ない側は勝てない」とし、「それを超えるには別の領域で試みる必要がある」と話した。
NVIDIAのソフトウェアエコシステムにとどまれば、結局は同じアーキテクチャと方法論を採ることになり、計算資源で優位なビッグテックには勝ちにくい、というのが同氏の見方だ。
こうした発想の背景には、親会社であるAIインフラ企業Morehでの開発経験がある。MorehはAMD製GPUをベースにした学習プラットフォーム「MoAI」を独自開発している。イム代表はMorehでAIディレクターを務め、AMD MI250 GPUを基盤とする「MoMo-70B」の開発を主導した。
同社によると、独自ソフトウェア技術の中核は、自社設計のアテンション構造「GDA(Grouped Differential Attention)」にある。アテンションは文中の単語同士の関係を捉える中核演算だが、不要な情報にも反応してノイズが生じやすい。Motif Technologiesは、信号を保持するグループとノイズを抑えるグループに演算資源を非対称に割り当てる方式で、この課題を改善したとしている。
学習アルゴリズムでも、AI企業で広く使われる標準的な「AdamW」ではなく「Muon」を採用した。Muonは、学習過程でパラメータ更新方向の衝突を抑え、同じ計算量で学習効率を高められるアルゴリズムで、同社はこれを数千台規模のGPU環境で同時に動かせるよう並列化したという。
推論段階では、NVIDIAのTensorRT-LLMではなく、オープンソースのvLLMを使用している。ただ、アテンションの中核演算については、Motif Technologies独自実装の方式に置き換えていると説明した。