DeepSeek(图片来源:Shutterstock)

中国AI公司DeepSeek发布新一代主力模型V4,进一步加码开源AI市场。

据MIT Technology Review当地时间4月24日报道,V4此次升级主要围绕长文本处理能力和价格竞争力展开,同时将“针对中国国产半导体优化”作为核心卖点之一。

这是DeepSeek自2025年1月推出推理模型R1以来最重要的一次产品更新。此次公司同步推出V4-Pro和V4-Flash两个版本。其中,V4-Pro主要面向编程和复杂Agent任务,V4-Flash则主打轻量化部署,强调速度和成本效率。两款模型均可通过Web和App端使用,并向开发者开放API。

性能和价格仍是此次发布的两大重点。DeepSeek表示,V4-Pro输入价格为每100万Token 1.74美元,输出价格为每100万Token 3.48美元;V4-Flash定价更低,输入每100万Token约0.14美元,输出每100万Token约0.28美元。公司称,其定价在高端模型中处于较低水平。

在性能对标方面,根据DeepSeek公布的基准测试结果,V4-Pro已具备与Anthropic Claude系列、OpenAI GPT系列以及Google Gemini系列竞争的能力。在开源模型阵营中,DeepSeek称,其在编程、数学和STEM等领域的表现超过Alibaba Qwen和Z.ai的GLM系列。

长上下文能力也是此次升级的重点之一。V4最高支持100万Token上下文。DeepSeek表示,这并不只是简单扩大上下文窗口,而是对信息处理机制进行了调整,包括对旧信息进行压缩,并有选择地聚焦当前所需内容,以提升整体处理效率。公司称,这一机制有助于模型在长文档分析和大规模代码处理场景下保持准确性,同时进一步压低成本。

上述改进也带来了资源消耗的下降。DeepSeek表示,与上一代V3.2相比,V4-Pro的计算资源需求减少约27%,内存占用也降至原来的约10%;V4-Flash则能够在更低资源条件下运行。公司认为,这种效率提升有望进一步降低大规模AI服务的建设成本。

在硬件适配层面,市场将这一进展视为降低对NVIDIA依赖的一个信号。DeepSeek称,V4是首个完成对华为Ascend芯片优化适配的模型。华为方面也表示,其基于Ascend 950的系统支持V4。这一动向被认为与中国推动AI基础设施自主化的方向相呼应。

不过,业内也普遍认为,这并不意味着已经实现“完全替代”。当前国产芯片更多仍用于推理环节,而在训练环节,对NVIDIA芯片的依赖可能依然存在。

DeepSeek还释放出进一步降价的预期。公司表示,若华为Ascend芯片实现大规模供给,V4-Pro价格仍有继续下调的空间。市场据此认为,这也是中国长期推进“芯片—模型—基础设施”本土化路径的又一信号。

在近期因人才流失和监管压力而受到关注的背景下,DeepSeek正借助V4同时检验自身的技术竞争力和生态扩张能力。市场接下来关注的,或许不仅是V4在性能层面的表现,还包括其在开源AI竞争格局以及全球半导体主导权博弈中的后续影响。

关键词

#DeepSeek #V4 #V4-Pro #V4-Flash #开源AI #100万Token上下文 #API #华为Ascend #长上下文 #低成本
版权所有 © DigitalToday。未经授权禁止转载或传播。