Microsoft AI集团CEO Mustafa Suleyman表示,在可预见的未来,人工智能(AI)仍远未触及发展上限。
Mustafa Suleyman于8日(当地时间)在《MIT Technology Review》发表文章称,近一轮AI性能跃升的核心驱动力,仍是算力的爆发式增长。过去一段时间,业界内外多次关于AI增长见顶的判断,最终都被现实推翻。
他提到,自2010年以来,用于训练前沿AI模型的计算量已从10^14 FLOPs增至10^26 FLOPs以上,这一增长是推动AI整体进步的关键因素。
对于外界常提及的制约因素,Mustafa Suleyman认为,仅以摩尔定律放缓、数据不足或电力约束来解释当前AI能力提升,并不充分。近期AI进步并非只来自半导体本身,内存、网络和软件效率的同步改善也在持续发挥作用。
在硬件层面,变化同样显著。按照他的说法,英伟达芯片算力已从2020年的312 TFLOPs提升至近期的2500 TFLOPs,6年累计增长约8倍。微软自研AI芯片Maia 200也被提及,其每美元可获得的性能较此前提升约30%。与此同时,HBM(高带宽内存)以及NVLink、InfiniBand等互联技术的发展,也使数十万块GPU组成统一系统协同运行成为可能。
基础设施的改进还显著压缩了模型训练时间。Mustafa Suleyman称,2020年使用8块GPU训练语言模型需要167分钟,如今已缩短至4分钟以内,提升幅度约50倍,明显高于按传统摩尔定律推算的约5倍水平。
软件效率也在快速提升。研究机构Epoch AI的数据显示,要达到相同性能水平,所需计算量大约每8个月减半;部分新模型的服务成本若按年计算,最高已降至原来的1/900。
他进一步预计,未来增长速度还有可能继续加快。当前,主要AI研究机构的算力规模正以每年约4倍的速度扩张;自2020年以来,投入最前沿模型训练的计算量也一直保持每年约5倍的增长。按其判断,到2027年前,全球AI算力规模将达到相当于1亿块H100的水平;如果这一趋势持续,到2028年前,有效算力或将再提升约1000倍。
Mustafa Suleyman认为,这一变化还将重塑AI本身的形态。他表示,外界应当“忘掉那种只会回答问题的基础辅助工具”。未来,AI将不再局限于简单问答,而是会演进为能够承担长期项目执行、谈判、物流管理等复杂任务、具备人类水平执行能力的Agent,并由此影响广泛依赖认知劳动的行业。
在仍待解决的关键约束中,电力被他列为首要问题。他举例称,一个冰箱大小的大型AI机架,功耗约为120 kW,约相当于100户家庭的用电量。不过他同时指出,过去50年间,太阳能成本已几乎降至原来的1/100,过去30年电池价格也下降了97%,依托清洁电力扩张算力基础设施的路径正在逐步显现。
在他看来,大规模投资也已从设想走向现实。Mustafa Suleyman称,规模达到1000亿美元的AI集群,以及10 GW级别的电力需求,已经不再只是科幻概念。包括美国在内的多个地区都在推进相关项目,微软也正据此规划其“超智能研究所”。
Mustafa Suleyman最后表示,AI怀疑论今后仍会持续出现,但算力的爆发式增长已构成“我们这个时代的技术叙事”。在他看来,AI发展确实存在瓶颈,但算力基础设施扩张仍处于非常早期的阶段。