图片来源:Shutterstock

韩国政府推进的自主基础模型开发项目,即将公布首轮评估结果。

据悉,韩国科学技术信息通信部计划于1月15日前完成“自主基础模型”项目的首次评估,并从入围的5支团队中先淘汰1家。按照目前安排,此后将每6个月进行一次评估:2026年6月由4支团队减至3支,至2026年12月最终保留2支团队。

目前,Upstage、SK Telecom、NC AI、LG AI Research等入围企业都在争取进入最终保留名单。不过在眼下,首先要面对的是如何避免在首轮评估中出局。

随着首轮评估临近,入围企业之间的紧张气氛也在升温。

近期,5支入围团队中的Upstage、Naver Cloud和SK Telecom先后卷入“从零训练(From Scratch)”争议。自去年12月30日5支团队在韩国科学技术信息通信部主办的活动中公开展示技术成果以来,围绕“是否真正从零训练”的讨论持续发酵。

之所以争议集中爆发,是因为“从零训练”正是自主基础模型项目首轮评估的重要标准之一。韩国科学技术信息通信部此前曾多次强调,通过对海外AI模型进行微调等方式开发出的衍生模型,不属于自主AI基础模型。

以Upstage为例,AI初创公司PsionicAI首席执行官Ko Seok-hyeon日前在开发者平台GitHub上提出质疑,称“Solar Open 100B”是基于中国ZhipuAI的“GLM-4.5-Air(Air)”构建的衍生模型,由此引发争议。

争议出现后,Upstage通过公开验证作出说明。随后,提出质疑的Ko Seok-hyeon也在社交平台发文致歉,相关风波暂时告一段落。

SK Telecom方面也被质疑,其正在开发的自主基础模型A.X K1与DeepSeek模型存在部分相似之处。对此,公司回应称,相关问题属于执行代码层面,与模型是否从零构建无关。

Naver Cloud则发布了两款模型:一款是采用原生全模态架构的基础模型“Native Omni Model(HyperCLOVA X SEED 8B Omni)”;另一款是基于现有推理型AI、强化视觉、语音及工具调用能力的“高性能推理模型(HyperCLOVA X SEED 32B Think)”。公司将两者一并作为自主基础模型项目的成果对外展示。

不过,Naver Cloud表示,Native Omni Model才是该项目的核心模型。与此同时,同场亮相的HyperCLOVA X SEED 32B Think则被指出,部分采用了对Qwen 2.5视觉编码器权重进行微调后的方案,因此引发争议。

对此,Naver Cloud解释称,其基础模型核心引擎自从零训练阶段起即完全基于自有技术开发,因此在韩语及韩国社会复杂语境的理解能力上具备竞争优势。至于此次模型引入外部编码器,则是出于兼顾全球技术生态兼容性和整体系统效率优化的战略考虑。

Naver Cloud进一步表示,视觉编码器承担着将视觉信息转换为模型可识别信号的“视神经”角色,而公司本身也已具备包括VUClip在内的自研视觉技术能力。

也有观点认为,近期相关争议已经不只是技术社区内部的正常质疑,更像是在首轮评估临近之际,企业之间竞争情绪升温所导致的结果。还有批评指出,政府对“从零训练”的具体判定标准说明不足,也在一定程度上放大了争议。

市场同时担心,即便首轮评估结束,相关争议仍可能带来持续影响。一位业内人士表示,由于评估标准存在较大解释空间,原本属于全球AI开发领域通行做法的问题,反而成为舆论焦点;与此同时,评估机制的专业性也有待进一步加强。

关键词

#韩国科学技术信息通信部 #自主基础模型 #从零训练 #Upstage #SK Telecom #Naver Cloud #HyperCLOVA X #A.X K1 #微调 #衍生模型
版权所有 © DigitalToday。未经授权禁止转载或传播。