NVIDIA与Google Cloud正进一步扩大在智能体AI和物理AI领域的基础设施合作。
据海外科技媒体Gigazine当地时间23日报道,双方计划在Google Cloud AI超级计算机上推出基于NVIDIA Vera Rubin的A5X裸金属实例,面向企业提供超大规模AI训练、推理及高性能仿真能力。
A5X采用NVIDIA Vera Rubin NVL72机架级系统,属于专属物理服务器。与多租户共享的虚拟服务器不同,该实例由单一企业独享计算资源,更适合大规模AI训练与推理,以及高性能仿真等场景。
在扩展能力方面,A5X是此次合作的一大重点。按NVIDIA披露的数据,单站点部署最高可扩展至8万块Rubin GPU,跨站点集群规模则可接近96万块Rubin GPU。为支撑这一规模,NVIDIA将ConnectX-9 SuperNIC与Google网络技术结合,用于构建超大规模AI集群。NVIDIA表示,这套基础设施面向所谓“AI工厂”场景。
双方同时披露了性能与成本指标。NVIDIA称,A5X可将单个token的推理成本降至上一代的十分之一,单位功耗吞吐量最高提升10倍。对企业用户而言,这意味着在相同基础设施条件下,可承载更多AI任务,或显著降低运行成本。
除基础算力外,双方合作范围还将进一步延伸至Google Cloud的AI服务体系。Google正在筹备基于Google Distributed Cloud、运行于NVIDIA Blackwell和Blackwell Ultra GPU之上的Gemini预览版本,同时还将推出搭载NVIDIA Blackwell GPU的机密虚拟机。
在智能体AI方面,双方还将把NVIDIA Nemotron和NVIDIA NeMo框架接入Google企业级AI平台,覆盖多模态推理、大规模数据处理,以及机器人和物理AI仿真等能力。这也显示出,双方的布局已不再局限于生成式AI,而是进一步延伸至工业级AI运行环境。
此次合作也反映出AI基础设施竞争的演进方向:行业比拼的重点,正从单颗GPU性能,转向超大规模集群建设、能效表现、网络一体化能力,以及与企业AI平台的协同能力。