現代の高負荷・高密度データセンターを考える【特集】

近年、 AI (人工知能)やDeep Learningなどのキーワードが注目されていることからも理解できるように、高性能コンピューティング(以下 HPC )が幅広く利用されるようになり、このような最先端システムの運用にかかわる要件も増えてきました。特に、空調や電力といったインフラ側への影響は無視できなくなっており、例えばデータセンターの効率性(建物の電力使用効率: PUE )などと密接に関係しています。
技術進歩に伴い、HPCクラスタを支えるためのコンピューティングラックは、1ラック当たり平均35kWとここ数年で数倍~数十倍の電力を消費するように変化しており、時には1ラック当たり最大100kWを超えることすらあります。

建物のオーナー、コロケーション事業者、エンタープライズデータセンター、ウェブスケール企業や政府、大学、国立研究所などは、新しいコンピュータシステムから発生する熱をただ除去するだけでなく、建物全体への影響をいかに減らすかなど、「冷却インフラ基盤」の見直しに苦労しています。

今日の世界では、石油・ガス関連研究、金融機関、ウェブマーケティング業界や自動車業界がHPCシステムを活用したビッグデータ解析を促進している一方で、世界各地のコンピュータルームやデータセンターの大部分は、現代および次世代のHPCシステムから発生する熱負荷を処理するための設備すら備わっていないのが現実です。このため、ITインフラ業界は、「効率的な冷却手法」の必要性を常に意識しています。
これらの社会情勢からも分かるように、HPCシステムで消費される電力100%が熱へ変換されると考えた時、この熱をいかに効果的かつ効率的な手法で除去するかが業界の関心事になった理由はいたってシンプルなのです。
本記事では、高密度化/高発熱化する現代のITインフラに対して考えられる最新の冷却対策を紹介していこうと思います。

液浸冷却:

近年開発された新しい高性能コンピュータチップは、1ラックあたり100kWまで許容するHPCシステムの設計を可能にしました。そもそもこの100kWという消費電力は、現在利用できるほぼすべてのサーバー冷却手法の限界を超えてしまっていますが、その例外として、「 液浸冷却 システム」があります。

液浸冷却システムは、特別に構成された絶縁性液体で満たされた水槽を備えており、コンピュータ回路全体へと電気伝導するリスクを冒さずに全サーバーを冷却水に浸すことができ、かつ、HPCシステムから発せられる熱を最大100%除去することができます。一度誘電流体に移された熱は、熱交換器、ポンプおよび閉回路冷却システムを介して容易に除去することが可能です。

従来型のデータセンターも、液浸冷却システムを受け入れるように徐々に改築されはじめています。 CRAC 、上底フローリング、垂直型サーバーラックなどの従来の冷却装置を、冷却液浸槽や閉回路温水冷却システムへと徐々に置き換える事業者も出てきました。液浸用の水槽は床に水平に置かれ、貴重なスペースを犠牲にすることにはなりますが、IT担当者にとって新しい有効的なソリューションとなります。(写真出所:Green Revolution Cooling)

液浸冷却を検討する際は、サーバーなどのハードドライブやOEM部品のように絶縁性液体によって悪影響を受ける部品の見直しが必要となります。インフラ基盤が大幅に変化することにより、将来的なOEMサーバーのオプションが大幅に制限されたり、液浸冷却テクノロジ専用のスペース使用による場所の制限などを考慮すると、将来のサーバーリプレースにも十分な配慮を払うことが必要です。

「液浸冷却システム」は、世界最先端のHPCシステムには非常に効率的なソリューションです。その一方で、1ラック100kW規模の超高負荷HPCシステムを導入するようなサイトはほとんど存在していないですし、インフラ基盤の変更が生じたり、メンテナンス時にも課題があったりと、現時点では市場全体から広く受け入れられる段階には至っていません。

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。