Team Naver于8日宣布,已建成基于NVIDIA下一代GPU“B200(Blackwell)”的AI算力集群,部署规模达4000块。
Team Naver表示,这一基础设施建成后,不仅获得了全球领先水平的算力资源,也为自研基础模型的持续升级迭代,以及AI技术更灵活地落地服务和各类产业场景打下基础。
据介绍,Team Naver自2019年率先实现NVIDIA超算基础设施“SuperPod”的商业化落地以来,持续积累超高性能GPU集群的自主设计、运营和验证经验。
公司评估称,此次建成的“B200 4K集群”在算力规模上可对标Top500排名靠前的超级计算机。
内部模拟结果显示,在训练72B参数模型时,此前基于2048块A100 GPU的主力训练集群完成相关训练约需18个月,而在“B200 4K集群”上,训练周期可缩短至约1.5个月。
随着训练效率提升超过12倍,Team Naver表示,公司将能够通过更多实验和反复训练提升模型成熟度,并建立起更快响应技术变化的开发和运营体系。
依托这一基础设施,Team Naver计划加快推进现有自研基础模型的升级,并大规模扩展可同时处理文本、图像、视频和语音的Omni模型训练,推动其性能提升至全球领先水平,再逐步应用于多项服务和产业场景。
Naver CEO Choi Soo-yeon表示,此次AI基础设施建设不仅是一次技术投入,更是支撑国家AI竞争力、AI自主能力和AI主权的重要资产。Team Naver将依托可实现快速训练和反复实验的基础设施,更灵活地把AI技术应用到服务和产业场景中,创造实际价值。