搜索关键词 MoE架构
AI & Enterprise
DeepSeek发布V4系列模型:开源低价,对标Opus 4.7和GPT-5.5
中国AI公司DeepSeek推出V4系列模型,主打开源和低价。其中,V4 Pro采用1.6万亿参数MoE架构,支持100万token上下文;V4 Pro和V4 Flash均基于约33万亿token完成训练,多项基准测试表现接近Opus 4.7和GPT-5.5。市场分析认为,其性价比优势或推动企业采用,但地缘政治和使用依赖风险仍需关注。
AI & Enterprise
Nota AI获NVIDIA Nemotron黑客松综合第一
Nota AI宣布,公司在NVIDIA Nemotron黑客松中凭借用于混合专家(MoE)量化的合成数据生成技术,从20支参赛队伍中获得综合第一。本次赛事围绕AI Agent、领域模型优化和合成数据管线设计三大方向展开。
AI & Enterprise
Moonshot AI发布开源大模型Kimi-K2.6,称多项基准测试成绩超越GPT-5.4和Claude Opus 4.6
中国AI初创公司Moonshot AI发布Kimi系列最新开源大模型Kimi-K2.6,并表示其在多项AI基准测试中的成绩超过GPT-5.4和Claude Opus 4.6。该模型基于SwiGLU激活函数和MLA注意力机制,采用384专家MoE架构,单次生成仅激活8个专家,同时集成一个4亿参数视觉编码器,最多支持300个代理并行运行。
-
AI & Enterprise
H Company发布AI代理Holo3:支持读屏并执行跨应用任务
-
AI & Enterprise
韩国医学、生物领域AI基础模型通过中期评估 转入第二阶段开发
-
AI & Enterprise
NVIDIA推出Nemotron Super 3,面向大规模Agentic AI应用,吞吐提升5倍
-
AI & Enterprise
Kakao升级开源语言模型Kanana-2,新增4款模型强化Agent AI能力
-
AI & Enterprise
NC AI发布基础模型VAETKI:KV缓存内存占用降低约83%
-
AI & Enterprise
SK Telecom公开A.X K1技术报告:519B参数,数学与代码基准成绩出炉
-
AI & Enterprise
NC AI联盟在Hugging Face开源行业大模型VAETKI