DeepSeek。写真=Shutterstock

中国のAI企業DeepSeekが、次世代の主力モデル「V4」を公開した。最大100万トークンの長文処理への対応に加え、価格競争力の高いAPIとHuaweiのAIチップ「Ascend」向け最適化を打ち出し、オープンソースAI分野で攻勢を強める。MIT Technology Reviewが24日(現地時間)に報じた。

今回の更新は、2025年1月に推論モデル「R1」を投入して以降で最大規模となる。DeepSeekは「V4-Pro」と「V4-Flash」の2モデルを公開し、Web版とアプリで提供するほか、開発者向けAPIも用意した。

V4-Proはコーディングや複数エージェントを組み合わせた作業向けの上位モデル、V4-Flashは処理速度とコスト効率を重視した軽量モデルという位置付けだ。

価格面では、V4-ProのAPI料金を入力100万トークン当たり1.74ドル(約261円)、出力100万トークン当たり3.48ドル(約522円)に設定した。V4-Flashは入力100万トークン当たり約0.14ドル(約21円)、出力100万トークン当たり約0.28ドル(約42円)で、DeepSeekはハイエンドモデルの中でも最安級の水準だとアピールしている。

性能面でも競争力を強調した。DeepSeekは自社ベンチマークに基づき、V4-ProがAnthropicのClaudeシリーズ、OpenAIのGPT系モデル、GoogleのGemini-3.1と競合し得る水準にあるとした。オープンソース陣営では、AlibabaのQwenやZ.aiのGLM系をコーディング、数学、STEM分野で上回ったとしている。

技術面での大きな特徴は、最大100万トークンのコンテキスト処理に対応した点だ。DeepSeekによれば、単純にコンテキスト長を拡大したのではなく、古い情報を圧縮しつつ、必要な情報に選択的に注目する構造的な改善を加えたという。長文書の分析や大規模なコード処理でも精度を維持しながら、コスト削減につなげられるとしている。

この設計は計算資源の効率化にも直結する。DeepSeekは、V4-Proについて旧モデルのV3.2と比べ、演算資源を約27%削減し、メモリ使用量を従来比で約10%抑えたと説明した。V4-Flashはさらに少ない資源で動作するとしており、大規模AIサービスの構築コストを押し下げる可能性がある。

ハードウェア面では、HuaweiのAscendチップに最適化した初のモデルである点も注目される。Huaweiは、自社のAscend 950基盤システムがV4をサポートすると発表した。中国国内で進むAIインフラの自立戦略と歩調を合わせた動きとみられる。

もっとも、現時点で完全にNVIDIA依存から脱却したとみる向きは少ない。業界では、中国製チップは主に推論用途で活用される一方、学習ではなおNVIDIA製チップへの依存が残っている可能性が高いとみられている。

DeepSeekは、HuaweiのAscendチップが大量供給されれば、V4-Proの価格をさらに引き下げられる可能性があるとも示した。これは、チップ、モデル、インフラを自国技術で積み上げようとする中国のAI戦略を示す動きとも受け止められる。

人材流出や規制圧力の中でも注目を集めてきたDeepSeekにとって、V4は技術競争力とエコシステム拡大の余地を同時に問う試金石となる。市場への影響は、単なるモデル性能の競争にとどまらず、オープンソースAIと半導体の主導権を巡る競争の中で見極められそうだ。

キーワード

#DeepSeek #AI #LLM #API #オープンソースAI #Huawei Ascend #NVIDIA
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.