面向AI服务器的SOCAMM2 192GB内存模组。图片来源:SK hynix

SK hynix 4月20日宣布,已开始量产面向下一代AI服务器的192GB SOCAMM2内存模组。该产品搭载10纳米级第六代(1c)LPDDR5X低功耗DRAM。

SOCAMM2(Small Outline Compression Attached Memory Module 2)是一种面向服务器场景的内存模组规格,主要将移动设备所采用的低功耗内存方案引入服务器。该产品采用压接式连接方式,有助于提升信号完整性,同时便于模组更换。

SK hynix表示,与现有RDIMM(Registered Dual In-line Memory Module)相比,这款产品的带宽提升逾2倍,能效提升逾75%。公司称,这主要得益于1c工艺的导入,从而支持高密度DRAM方案落地。该产品同时按照NVIDIA下一代平台Vera Rubin的需求进行设计。

据介绍,Vera Rubin是NVIDIA面向Agentic AI和推理负载的下一代平台,目标是支持多步骤任务处理以及大规模长上下文工作负载。SK hynix预计,SOCAMM2 192GB内存模组将有助于缓解超大规模AI模型在训练和推理过程中面临的内存瓶颈问题,尤其是在数千亿参数模型场景下。

SK hynix指出,随着GPU算力不断提升,如果内存供给速度跟不上,系统整体性能就会受到拖累。公司认为,随着AI市场重心由训练逐步转向推理,能够以更低功耗运行大语言模型(LLM)的SOCAMM2,正成为下一代内存解决方案之一。针对全球CSP(Cloud Service Provider)客户需求,公司也已提前建立稳定的量产供应体系。

SK hynix AI Infra负责人兼CMO Kim Ju-seon表示,SOCAMM2 192GB产品的供应,进一步提升了公司在AI内存领域的竞争力。未来,SK hynix将继续与全球AI客户保持紧密合作,持续强化AI内存解决方案能力。

关键词

#SK hynix #SOCAMM2 #SOCAMM2内存模组 #LPDDR5X #1c工艺 #RDIMM #AI服务器 #NVIDIA #Vera Rubin #CSP
版权所有 © DigitalToday。未经授权禁止转载或传播。