在AI需求持续升温的背景下,内存芯片供给日趋紧张。为缓解数据中心的内存压力,头部科技企业正加快寻找替代方案;可实现服务器间共享内存资源的CXL(Compute Express Link)技术因此受到关注。
在传统服务器架构中,内存通常固定安装在指定插槽内,服务器只能调用本机已配置的内存,难以直接利用同一数据中心内其他服务器的闲置内存资源。CXL的核心价值就在于打通这类限制,使服务器能够访问部署在数据中心其他位置的内存资源。
CXL是一项开放标准,由CXL联盟维护。联盟成员包括Samsung Electronics、Nvidia、Intel、AMD,以及Google、阿里巴巴等云服务提供商。
尽管CXL问世已有7年,但落地进展此前一直较慢。原因在于,引入CXL后,处理器在读取内存数据时可能面临额外传输时延,从而影响计算效率。尤其是在AI工作负载下,处理器需要持续获取新数据,即便是细微时延,也可能拖累整体系统性能。
不过,随着内存供给不足推高成本,企业正寻求更多应对手段,对CXL的投入也随之增加。
据The Information报道,Google已开始在自家数据中心部署CXL技术。该媒体援引两名Google员工的话称,这一举措可能带动更多企业跟进。
报道称,Google目前已开始安装CXL控制器,用于协调服务器 CPU 与大规模外部内存池之间的数据传输。与此同时,Google也在评估将这类内存池进一步整合至自身系统架构中的方案,以提升处理器访问外部内存的速度。The Information援引Google员工的话称,这一方案有望改善访问效率。
不过,即便Google已开始实际部署,CXL距离真正成熟和普及仍有不小距离。The Information称,业内专家普遍认为,CXL目前仍难以满足超大规模云服务提供商的需求。
报道还指出,AMD于2022年、Intel于2023年分别推出支持CXL的服务器芯片,但相关产品在实际环境中的应用仍较为有限。另有观点认为,CXL并非由单一公司主导开发,这也可能在一定程度上制约其扩张速度。
The Information表示,要推动CXL大范围应用,服务器、CPU、内存、网络设备等数据中心关键组件都需支持同一标准。这类协调工作并非单一企业能在短时间内完成,若还涉及大型联盟层面的协同,推进周期往往会更长。
尽管如此,围绕CXL的产业推进仍在继续。Nvidia计划在今年年底推出的Vera CPU中支持CXL 3.1。The Information认为,这可能成为迄今CXL最大规模的实际测试之一。
韩国企业也在持续推进相关布局。Samsung Electronics于2024年建成获得全球开源解决方案厂商Red Hat认证的CXL基础设施。
SK Telecom近日在西班牙巴塞罗那举行的MWC 2026期间,与Panmnesia签署关于“基于CXL的下一代AI数据中心架构”联合开发的MOU。双方计划基于CXL,将资源互联范围从服务器内部扩展至机架级,并推动数据中心架构向CPU、GPU和内存可灵活组合的方向演进。
SK hynix则于去年完成基于CXL 2.0的DRAM方案CMM(CXL Memory Module)DDR5 96GB产品客户认证。