Google、最新チップに液冷採用- 自社データセンターの高密度化で

毎年新たなTPU

Googleは、年次開発者会議にて、最新世代のテンソル・プロセッシング・ユニット( TPU 3.0)を公開しました。

高密度ハードウェア、高密度サーバーの冷却のため、特定用途向け集積回路(ASIC)には液冷を採用しました。これは、世界最大の検索・広告企業Googleとしては初めてのことです。数ヶ月以内に同社は大規模な展開を始めることになるでしょう。

熱を感じる

「チップがとてもパワフルなので、我々は初めてデータセンターに液冷を導入せざるを得ませんでした」と語るのはGoogleのS.ピチャイCEOです。

「そして、我が社はこれらのチップを巨大ポッドという形で設置しました。今回のポッドは昨年のTPUよりも8倍強力で、100ペタフロップスを優に超えます。これこそ我々がより良質で、より大規模で、より正確なモデルを開発することを可能にし、さらなる課題への取り組みにとって手助けとなるでしょう」

しかし、Googleは100ペタフロップスというパフォーマンスを獲得するためのベンチマークを明らかにはしませんでした。元来のTPUは、利用されうるアプリケーションの幅がかなり限定されており、分岐命令のサポートもなく、そして主に機械学習の推測タスクに適用されていました。TPU2.0は、8つのラックポッドに64のチップを搭載、最大11.5ペタフロップスの能力をもって、機械学習のトレーニングと実行をサポートしました。

「しばらくの間、我々はコンピューターの構造分野に対して大規模投資を行ってきました」とピチャイ氏は述べました。「TPU2.0は、今日目の当たりにしているあらゆる製品の向上をもたらし、Googleのクラウドユーザーにも利用できるようにしたのです」

各TPU3.0は128GBの高帯域幅のメモリを有し、それはTPU2.0の2倍にあたります。さらなる構造の仕様については公表されませんでした。液冷のプロセスのより明確な詳細についても同じく不明です。

TPUマザーボードのイメージ図には、チップに直付けの液冷が表示されています。各ボードに4つのチップを搭載し、各ASIC上の銅製の コールドプレート には冷却液が行きわたっています。

AI や機械学習のワークロードがますます重要になるにつれて、高密度ラックの人気がより高まっています。そのようなラックが生み出す大量の熱を処理する液冷ソリューションもそのひとつです。

-Data Center Dynamics
原文はこちら

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。