【元記事をASCII.jpで読む】

 ソフトバンク子会社データセンターを手がけるIDCフロンティアは、直接液冷対応により、ラックあたり最大150kWの消費電力に対応する「DLCハウジングサービス」を発表した。データセンターにおける液冷対応とはなにか? 満たすべき要件とはなにか? IDCフロンティアへの取材と資料を元に解説する。

高電力化なGPUサーバー 頼みの綱の液冷はデータセンターの対応待ち

 データセンターの電力需要が年々高まっているのは、ご存じの通り。電力広域的運営推進機関によると、データセンターの最大需要電力は616万kWで、半導体工場の99万kWの6倍に上る。しかも、AIの計算処理に使われるGPUサーバーは高電力化の一途をたどっている。8基のGPUを搭載した「NVIDIA DGX B200」の最大消費電力は15kWだが、72基のGPUを搭載した「NVIDIA GB200 NVL72」の最大消費電力はなんと135kWに達する。

 GPUサーバーの発熱量の大幅な増加により、既存の空冷での冷却はもはや難しい。そのために注目されるようになったのが、気体に比べて熱伝導率が3000倍も高い液体による冷却だ。将来的にはサーバー自体を液体に浸す「液浸」も見据えられてはいるが、現状は冷却液(クーラント)で直接冷却する「直接液体冷却(DLC:Direct Liquid Cooling)の導入が最新データセンターにおけるホットトピックになっている。

 液冷対応のデータセンターは次々と新設されているが、ニーズに追いつかないのが現状だ。しかし、既存のデータセンターでは大規模な改修が必要になる。既存のデータセンターチラー(冷水製造設備)を用いた水冷式室内機や、いわゆるエアコンと同じ冷媒式室内機を用いた冷却が主流。GPUサーバーを液冷するためには、冷却液の供給設備を新設しつつ、床下配管のための底上げが必要になる。また、液冷設備以外にも、消費電力の大きくGPUサーバーの設置に向け、電源構成や床荷重の見直さなければならない。

 そして、液冷導入に向けたユーザー企業側の課題としては、サーバーメーカーごとに厳格な動作環境基準があるということだ。具体的には冷却液のph値に基準があり、水質の調整に追加設備やコストがかかる可能性があるということだ。受け入れ可能なデータセンターも限られているため、GPUサーバーの液冷は短期間での導入が難しいのが現状だ。

メーカーの水質基準をクリア ラック単位、エリア単位で液冷に対応

 今回、IDCフロンティアが発表したDLCハウジングサービスは、文字通り直接液体冷却の環境を提供するハウジングサービスだ。ラックあたり最大150kW(後述するArea DLCの利用時)まで対応し、最新の液冷式GPUサーバーの設置を実現する。

 提供形態は、ラック単位で冷水を供給する「Custom DLC」とエリア・データホール単位で供給する「Area DLC」の2種類。Custom DLCではラックのサイドカーとしてCDU(Coolant Distribution Unit)を用意し、パイプを介して顧客ラック内のInRack CDUと接続し、冷水と温水の交換を行なう。一方、Area DLCでは、床下から直接冷水を供給して、InRack CDUと接続。両者とも責任分界点が明確化できる設計になっているという。

 DLCハウジングサービスはサーバーメーカーの厳しい水質基準をクリアしており、デル・テクノロジーズ、HPE、レノボ、QCT、スーパーマイクロGPUサーバーは設置可能であることを確認されている。これまでもデータセンター事業者とサーバーメーカーは連携していたが、液冷利用の環境作りに、より連携を深めた形だ。

 これまで同社はリアドア型の空調機を用いた専用ラックを提供する「高負荷ハウジングサービス」で冷水を用いた局所空冷を実現してきた。今回は府中データセンターの高負荷エリアでの液冷対応を進め、床下配管も整備した。納期は最短2ヶ月で、CDUまで含めたサーバーラック一式を提供するという。

 既存設備を活かしているため。大規模な工事は不要で、短納期での導入が可能。運用中でも特定のラックの冷却性能を高めることができるという。まずは東京の府中データセンターからスタートし、2025年8月以降は奈良の生駒データセンターでも開始。AI計算基盤を東西に分散配置することも可能になるという。

ハードル高すぎた直接液冷 IDCFのDLCハウジングサービスなら最大150kWまでいける