在韩国政府GPU支持项目推动下,多家AI初创企业正在加快模型研发,重点布局下一代大语言模型、韩文文档解析以及行动型AI代理等方向。
据韩国相关机构及业界5日消息,入选韩国科学技术信息通信部GPU支持项目的企业,目前正围绕基于扩散的Transformer大语言模型(LLM)、韩文文档解析模型和行动型AI代理等技术展开开发。
其中,AI初创公司Trillion Labs通过韩国信息通信产业振兴院(NIPA)的高性能计算支持项目,获得80块Nvidia H200 GPU,用于开发基于扩散(Diffusion)的Transformer架构LLM“Trida-7B”。该公司表示,与传统自回归模型不同,Trida-7B采用整句并行处理方式,属于全球大型科技公司近来开始探索的下一代模型架构。开发过程中,Trillion Labs还公开了模型权重和推理代码。
Trillion Labs相关人士表示,这类挑战性技术仅靠初创企业自身算力难以推进,而政府支持在一定程度上弥补了资源缺口;同时,NIPA项目团队在研发过程中保持高频沟通,并对开发目标进行细致协调,也是项目顺利推进的重要因素。
生成式AI企业Posicube也通过上述项目获得GPU资源,用于开发韩文轻量级视觉语言模型(VLM,7B)。该文档解析模型可处理PDF、PPT、Word及扫描图像,并自动转换为Markdown,重点针对海外模型较难处理的韩国公共部门和金融机构特有表单。公司计划在完成开发后,将该模型接入自有解决方案robi G,并面向金融行业供货。
电商AI代理初创公司Inhandce则通过2025年追加预算中的高性能计算支持项目,获得为期9个月的GPU支持,集中推进行动型AI模型“ACT-2”的升级。ACT-2基于大规模动作模型(LAM),可在网页环境中自主执行按钮点击、菜单选择和字段输入等界面操作。公司相关人士表示,将以此次获得的GPU资源为基础,进一步提升其在全球AI市场的竞争力。
作为政府GPU支持项目的运营方,NIPA目前正与直接向入选企业提供资源的云服务提供商(CSP)一道,按月检查项目进展。NIPA相关人士表示,与以最终成果为导向的支持方式不同,GPU资源更多用于研发中间阶段,因此入选企业对外披露普遍较为谨慎。相关成果案例将先用于内部管理,只有在企业确认愿意通过媒体等渠道公开后,才会对外发布。
韩国科学技术信息通信部表示,通过追加预算获得的1万块GPU资源中,已优先向159个项目分配4224块;其余5000块GPU资源中,产业界和学界分别为4000块和1000块,相关追加公开招募将于3月启动。待全部完成分配后,主管部门还将定期监测资源使用情况;如发现使用率偏低或存在非指定用途使用情形,将回收并重新分配相关GPU资源。