Microsoft AI CEOのムスタファ・スレイマン氏は、AI開発は当面、成長の限界に直面しないとの見方を示した。計算インフラの拡大が続く限り、2028年までに有効計算能力が約1000倍増える可能性があるとしている。
同氏は8日(現地時間)、MIT Technology Reviewへの寄稿で、近年のAI性能向上を支えてきたのは計算能力の急拡大だと指摘した。AIを巡っては成長鈍化を指摘する声もあるが、そうした見方は実態と合わないと反論した。
スレイマン氏によると、2010年以降、最先端AIモデルの学習に投じられた計算量は10の14乗FLOPSから10の26乗超へ拡大した。この計算量の増加こそが、AI全体の進歩を押し上げた主因だと位置付けた。
AIの進展を阻む要因としては、ムーアの法則の鈍化やデータ不足、電力制約がしばしば挙げられる。ただ、足元の性能改善は、半導体そのものの進歩に加え、メモリやネットワーク、ソフトウェア効率の向上が重なって実現しているとした。
ハードウェア面でも改善は続いている。NVIDIA製チップの性能は、2020年の312テラフロップスから足元では2500テラフロップスへと拡大し、6年間で約8倍になったという。
また、Microsoftの自社AIチップ「Maia 200」については、従来比でコスト当たり性能が約30%改善したと紹介した。HBM(広帯域メモリ)やNVLink、InfiniBandといった接続技術の進歩により、数十万基規模のGPUをあたかも単一のシステムのように連携させる構成も可能になったと説明した。
こうしたインフラの改善は、学習時間の短縮にもつながっている。2020年には8基のGPUで言語モデルを学習させるのに167分かかっていたが、現在は4分未満まで短縮されたという。
その結果、ムーアの法則から想定される約5倍の改善を大きく上回る、約50倍の性能向上が実現したとの分析も示した。
ソフトウェア効率の改善ペースも速い。研究機関のEpoch AIによれば、同じ性能を実現するのに必要な計算量は、およそ8カ月ごとに半減しているという。一部の最新モデルでは、提供コストが年率換算で最大900倍低下したとの結果もあるとした。
今後の成長ペースについても、さらに加速する可能性があるとした。主要なAI研究組織の能力は年率約4倍で拡大しており、2020年以降は最先端モデルの学習に投じられる計算量も毎年5倍前後のペースで増えていると説明した。
世界のAI計算規模は、2027年までにH100換算で1億個規模に達する見通しだという。この流れが続けば、2028年までに有効計算能力はさらに約1000倍拡大し得るとの見方を示した。
スレイマン氏は、こうした変化によってAIの形そのものが変わると強調した。単なる質問応答ツールという見方は改めるべきだとし、AIは今後、長期プロジェクトの遂行や交渉、物流管理まで担う「人間レベルのエージェント」へ進化するとの認識を示した。
その結果、知的労働を基盤とする産業全体が影響を受けるとの見通しも示した。
一方、主要な制約として残るのが電力問題だという。冷蔵庫ほどの大きさのAIラック1台で約120キロワット(kW)を消費し、およそ100世帯分に相当する水準になると説明した。
ただ、太陽光発電のコストは過去50年でほぼ100分の1に低下し、電池価格も30年で97%下落したと指摘した。クリーン電力を前提に、AIインフラを拡張する道筋は見え始めていると付け加えた。
巨額投資もすでに現実味を帯びてきたとする。1000億ドル(約15兆円)規模のAIクラスターと10ギガワット(GW)の電力需要は、もはやSFではないと強調した。
実際、米国を含む複数地域で関連プロジェクトが進んでおり、Microsoftもこれを前提に超知能研究所を設計していると明らかにした。
スレイマン氏は最後に、AI懐疑論は今後も続くだろうとしつつも、計算能力の急拡大こそが「この時代の技術ストーリー」だと強調した。AI開発にはなおボトルネックがあるものの、計算インフラ拡張の局面はまだ初期段階にすぎないとの認識を示した。