IntelとGoogleは10日、次世代のAI・クラウド基盤の構築に向けた複数年提携を発表した。多様なAIシステムが広がるなか、CPUとASICベースのIPUを軸に、性能や電力効率、総保有コスト(TCO)の改善を進める。
両社は、AIインフラの高度化に伴い、オーケストレーションやデータ処理、システム性能の確保においてCPUの重要性が一段と高まっているとみている。Google Cloudはこれまで、最新のIntel Xeon 6プロセッサを搭載したC4、N4インスタンスを含むワークロード最適化インスタンスで、Intel Xeonプロセッサを採用してきた。
これらの基盤は、大規模AI学習のオーケストレーションから低遅延が求められる推論、汎用コンピューティングまで幅広い処理を担う。今回の提携では、複数世代のXeonプロセッサを対象に、Googleのグローバルインフラ全体で性能や電力効率、TCOの改善に重点を置く。
両社はあわせて、ASICベースのIPUの共同開発も拡大する。IPUは、ネットワークやストレージ、セキュリティ関連の処理の一部をホストCPUから切り分けて担うプログラマブルアクセラレータだ。Intelによると、ハイパースケールのAI環境でもシステムの複雑さを増やさず、稼働効率を高めながら安定した性能を確保できるという。Xeon CPUとIPUは統合プラットフォームとして運用し、汎用コンピューティングとインフラ高速化機能を組み合わせて提供する。
Intelのリップ・ブー・タンCEOは「AIの拡張にはアクセラレータだけでは不十分で、バランスの取れたシステムが不可欠だ」とコメントした。そのうえで「CPUとIPUは、最新のAIワークロードが求める性能、効率、柔軟性を支える中核になる」と述べた。
Googleのアミン・バハダットAIインフラ部門シニア・バイスプレジデント兼CTOは「Intelは約20年にわたる信頼できるパートナーだ」としたうえで、「IntelのXeonロードマップによって、増え続けるワークロードに対する性能と効率の要件を継続的に満たせると確信している」と語った。