HBM(高带宽内存)。图片来源:Shutterstock

随着AI数据中心持续扩张,高带宽内存(HBM)被内存厂商列为优先保障对象,智能手机和PC所需的通用DRAM与NAND闪存供应正面临压力。

据TechRadar当地时间5月11日报道,这轮内存供需紧张可能持续至2027年,并进一步影响终端设备的价格与配置。

变化的核心,在于内存厂商正在重新分配产能资源。随着主要厂商集中扩大AI系统所需HBM的产能,原本面向手机和PC的通用DRAM及NAND闪存供应相对收紧。在晶圆厂整体产能有限的情况下,分配给AI内存的资源越多,留给手机内存的空间就越小。

IDC分析师Tom Mainelli表示,分配给NVIDIA GPU所需HBM堆叠的晶圆越多,智能手机和笔记本电脑可获得的内存产能就越有限。他指出,AI系统对内存的依赖并不低于处理器,而且需求规模极大。由于大语言模型(LLM)需要高速处理海量数据,性能更高、价格也更高的HBM需求势必持续走强。

目前,行业已开始感受到供应错配带来的压力。随着AI数据中心对内存的需求迅速攀升,智能手机厂商不得不在更紧张的供应环境下重新调整产品配置。

这也在改变终端产品的设计逻辑。过去,厂商更多围绕消费者对内存容量的预期来规划产品;如今,物料成本能否控制在可承受范围内,正成为更关键的考量因素。

市场分析人士预计,智能手机零部件成本可能上涨15%以上。受此影响,部分中端机型可能下调内存容量,入门机的整体配置也可能进一步收缩,高端机型的规格升级节奏则未必能维持往年水平。考虑到PC厂商已经启动涨价,相关压力进一步传导至智能手机市场的可能性也在上升。

更值得关注的是,这一趋势未必只是短期现象。由于HBM盈利能力更强、利润率也高于通用DRAM,厂商将产线资源向HBM倾斜,正被视为一种结构性变化。业内也有观点认为,内存紧张局面可能持续到2027年。即便新建工厂,HBM堆叠工艺本身难度较高,新增产能也难以在短时间内充分释放。

Apple同样难以完全独善其身。虽然凭借大规模采购和长期合同,其消化价格波动的能力可能强于其他厂商,但终究仍处于同一条内存供应链之中。相比之下,规模较小的Android厂商可选择的空间更小,可能被迫提价、下调配置,甚至停推部分低利润机型。

与此同时,移动端AI竞赛也在进一步推高内存压力。Google正将生成式AI模型引入Android,中国厂商也在持续测试端侧AI助手功能。这类功能通常需要更大的内存、更快的芯片和更高的带宽。AI提升了使用体验,但支撑AI运行的关键部件供应趋紧,反过来又推高了整机价格。

这一影响并不只局限于硬件厂商。应用开发者也需要根据新的市场环境调整策略。过去默认手机性能每年自然提升的前提,正在受到挑战;部分机型可提供的内存和存储空间,未来也可能受到限制。

在这样的背景下,云端AI的重要性可能进一步上升。端侧AI依然具备吸引力,但在成本压力加大的情况下,更多用户或将继续依赖远程服务器完成相关AI功能。

与此同时,市场主导权也可能进一步向头部厂商集中。像Apple这样在硬件能力和供应链管理上更具优势的大厂,缓冲压力的能力相对更强;中小厂商则可能承受更大挤压。随着AI热潮持续改写半导体产能分配,智能手机市场或将进入价格、配置和服务结构同步调整的新阶段。

关键词

#AI数据中心 #HBM #DRAM #NAND闪存 #内存供应 #手机成本 #PC涨价 #NVIDIA GPU #LLM #云端AI
版权所有 © DigitalToday。未经授权禁止转载或传播。