搜索关键词 混合专家(MoE)架构
AI & Enterprise
DeepSeek发布V4系列模型:开源低价,对标Opus 4.7和GPT-5.5
中国AI公司DeepSeek推出V4系列模型,主打开源和低价。其中,V4 Pro采用1.6万亿参数MoE架构,支持100万token上下文;V4 Pro和V4 Flash均基于约33万亿token完成训练,多项基准测试表现接近Opus 4.7和GPT-5.5。市场分析认为,其性价比优势或推动企业采用,但地缘政治和使用依赖风险仍需关注。
AI & Enterprise
韩国医学、生物领域AI基础模型通过中期评估 转入第二阶段开发
韩国科学技术信息通信部公布“AI专用基础模型”项目中期评估结果。Lunit开发的16B医学模型和KAIST开发的2B蛋白质结构预测模型均获得80分以上,达到进入第二阶段的标准。两大联盟后续将继续扩充模型规模,并在医院及机构推进实证验证,相关模型还将于4月初开源发布。
AI & Enterprise
NVIDIA推出Nemotron Super 3,面向大规模Agentic AI应用,吞吐提升5倍
NVIDIA宣布推出面向大规模Agentic AI应用的Nemotron Super 3模型。该模型采用1.2亿参数量和混合专家(MoE)架构,吞吐量较上一代提升5倍,准确率提升2倍。目前,Nemotron Super 3已上线NVIDIA Build、OpenRouter和Hugging Face,Perplexity等正基于该模型开发AI代理和工作流自动化应用。