AIや高性能コンピューティング(HPC)、クラウドサービスの拡大を受け、世界のデータセンターでは電力需要が急増している。なかでも冷却は、運用コストと持続可能性を左右する重要課題として存在感を高めており、従来の空冷に代わって液体冷却(液冷)へのシフトが進みつつある。
国際エネルギー機関(IEA)によると、データセンターは世界の電力消費の約1.5%を占める。AIなどの技術普及を背景に、2030年までにエネルギー需要は2倍に増える見通しだ。データセンターの消費電力の約半分は冷却に使われるとされ、冷却方式の選定が施設全体の競争力を左右する局面に入っている。
米ITメディアのTechRadarが11日(現地時間)に報じた。これまでデータセンターは内部ファンを使う空冷が主流だったが、AIワークロードの拡大でラック当たりの電力密度が上がり、空冷では対応が難しい場面が増えている。その代替策として注目を集めているのが、水を使って熱を逃がす液冷だ。
液冷の最大の強みは、熱除去効率の高さにある。水は空気に比べて熱伝達効率が3000倍以上高く、サーバー冷却に必要な電力を大幅に抑えられる。液体をノードへ直接供給する方式では、サーバーが発する熱の最大98%を除去できるとされる。回収した温水を建物の暖房などに再利用できるため、分析によっては総電力消費を最大40%削減できるという。
持続可能性の面でも液冷は進化している。従来の蒸発式冷却は給水を必要としたが、近年は閉ループ型の液体・空気熱交換システムが広がり、水の損失を最小限に抑えられるようになった。流入温度の上昇を許容する最新設計では、水を追加で冷やすためのエネルギーも削減できる。
一方、空冷は設置スペースや拡張性の面で制約が大きい。一般に、空冷システムが対応できる電力密度は70 kW程度が上限とされ、それを超えると冷却能力が追いつかなくなる。AI向けGPUは既存のCPUに比べて最大10倍の電力を消費し、3Dシリコン積層などの設計も限られた空間への演算資源の集積を後押しする。このため、高密度のAIデータセンターでは空冷が物理的な限界に直面している。
Goldman Sachsは、AIの普及により2030年までにデータセンターの電力需要が最大160%増加すると予測している。こうした見通しは液冷の重要性を一段と高めるもので、電力使用効率(PUE)の改善もデータセンター運営の主要指標として注目を集めている。液冷を採用する一部のデータセンターでは、PUEがすでに1.1未満、さらに1.04程度に達した例もあるという。
保守性と安定性の面でも差が出ている。空冷はファンを用いるため、粉じんの流入や温度変動の影響を受けやすい。これに対し、最新の液冷システムは安全性と保守性の向上が進んでいる。空気と水を組み合わせるハイブリッド型の冷却方式も広がっており、導入のハードルは下がりつつある。
業界関係者は「AI中心のデータセンター時代において、冷却方式は単なる設備の選択ではなく、長期的なインフラ戦略だ」と指摘する。そのうえで「高密度の演算環境では、液冷は選択肢ではなく必須要件になりかねない」との見方を示した。