图片来源:Shutterstock

据报道,NVIDIA拟以约200亿美元收购专注AI推理的芯片初创公司Groq。市场普遍认为,这笔交易的影响可能不仅限于AI芯片市场本身,也让AI数据中心相关基础设施议题再次升温。

在近期报道中,科技新闻通讯UncoverAlpha将NVIDIA收购Groq的动因归纳为五个方面,分别是能源约束、HBM供应瓶颈、CoWoS先进封装产能受限、液冷数据中心部署瓶颈以及竞争因素。

其中,数据中心散热路径被视为此次交易的重要看点之一。Groq推出的LPU(Language Processing Unit)不同于NVIDIA最新的Blackwell GPU,并不依赖液冷方案。

UncoverAlpha指出,与液冷数据中心相比,风冷数据中心目前仍占绝大多数。包括Blackwell在内,NVIDIA后续产品为了追求更高峰值性能,预计大多将围绕液冷方案设计;但在云计算市场,仍有大量风冷数据中心难以直接切换至液冷架构。

UncoverAlpha认为,从NVIDIA的角度看,其当然希望数据中心加快向液冷过渡,但现实推进并不容易。液冷会明显提升系统复杂度,也给数据中心运营方带来更大改造压力。若过度依赖液冷数据中心,反而可能限制后续增长空间。因此,对NVIDIA而言,保留适用于风冷环境的产品选项十分关键。作为NVIDIA GPU替代方案之一而受到关注的AWS Trainium,同样采用风冷设计。

除散热之外,HBM(High Bandwidth Memory,高带宽内存)供应问题也被视为此次交易的关键背景之一。

AI产品管理类通讯和播客主理人Aakash Gupta近日在社交平台X(原Twitter)表示,NVIDIA收购Groq的一个重要背景,是应对DRAM市场供给趋紧所带来的供应链风险。

Aakash Gupta指出,NVIDIA GPU对HBM依赖度极高。以H100为例,单颗芯片配备80GB HBM3,而B200系统所需容量更大。这意味着,DRAM价格上行的影响不仅波及PC厂商,也会直接传导至NVIDIA GPU的成本和产能。

随着Google、AWS、AMD等厂商加快扩张AI芯片业务并提升HBM采购规模,HBM供应瓶颈已经显现,且紧张局面仍在加剧。

相比之下,Groq的LPU并不依赖HBM。市场据此认为,若完成收购,NVIDIA将获得一条不受HBM供应掣肘的推理基础设施扩张路径,从而在AI推理市场打开新的销售空间。

在制造层面,Groq芯片采用片上SRAM,无需外部内存,因此也可以在较成熟的制程节点上生产。UncoverAlpha称,正因为无需外部内存,Groq芯片在实现高速运行时并不依赖最高密度晶体管。Groq最新一代LPU由GlobalFoundries基于14nm工艺生产。

这也意味着,Groq方案可在非TSMC、且相对成熟的制程节点上实现高性能输出。对NVIDIA这类企业而言,这一点具有现实意义,因为其有助于绕开TSMC产能与CoWoS封装这两项关键约束。通过收购Groq,NVIDIA有望开辟出一条有别于Blackwell体系、受HBM、先进封装和液冷条件制约更少的新增长路径。

UncoverAlpha进一步表示,NVIDIA显然意识到,当HBM、能源、液冷和CoWoS等瓶颈叠加,导致市场算力持续紧张时,客户和竞争对手都会加快寻找绕开现有约束的替代方案。由于Groq不受上述多项供应链瓶颈的直接限制,因此被视为最具竞争力的候选者之一。也正因此,为避免Meta或Microsoft等公司率先收购Groq、在GPU之外打开新的替代路径,NVIDIA选择先行出手。

关键词

#NVIDIA #Groq #AI推理 #LPU #HBM #CoWoS #液冷数据中心 #风冷数据中心 #TSMC #数据中心散热路径
版权所有 © DigitalToday。未经授权禁止转载或传播。