AMD、HPC向けGPU「Instinct MI100」を発表
10テラフロップス超のHPCをターゲットに
AMDは、10テラフロップス(FP64)のパフォーマンス壁を超えた最初のx86サーバ向けGPUであるAMD Instinct MI100アクセラレータを発表しました。
ハイパフォーマンスコンピューティング(HPC)のユーザを対象とした7nmチップは、年末までには発売開始されます。
Nvidiaに戦いを挑む
MI100は、11.5テラフロップスのピークFP64スループットを実現し、前世代のMI50の3倍の改善です。また、FP32ワークロードで23.1テラフロップスのピークスループットを誇り、競合のNvidia A100を上回ります。また、Nvidiaの400Wを下回る300W TDP (Thermal Design Power: 熱設計電力 ) を実現しています。
AMDは現在、GPUアーキテクチャを2つに分割しており、RDNAプラットフォームはゲームに重点を置き、一方新しいCDNAプラットフォームはHPCおよびAIワークロードに特化しています。
アクセラレータは、1.2GHzのクロックレートで32GBの高帯域幅HBM2メモリを搭載、1.23TB/sのメモリ帯域幅を実現し、大規模なデータセットをサポートします。このカードは、3つのInfinity Fabricリンクで最大340GB/sの総スループットが可能であり、クアッドコア・ハイブ(サーバごとに最大2つ)に展開されるよう設計されており、各ハイブは最大552GB/sのP2P(ピアツーピア) I/O間帯域幅をサポートします。
Dell、HPE、Gigabyte、Lenovo、およびSupermicroは、GPUをサポートするサーバを発表したOEM/ODMパートナー企業でした。
「AMDがInstinct MI100 GPUアクセラレータによって、ハイパフォーマンスコンピューティングに大きな影響を与えていることに興奮している」と、Supermicroでフィールドアプリケーションエンジニアリングおよび事業開発部門のシニアバイスプレジデントを務めるVik Malyala氏はこう述べています。
「 MI100がもたらすハイメモリ環境とGPUピアツーピア帯域幅に加え、新しいCDNAアーキテクチャで得られる計算能力を組み合わせることで、ユーザは、アクセラレーテッド・コンピューティング要件と重要なエンタープライズワークロード要件を満たす、優れたソリューションにアクセスできるようになるだろう」
Data Center Dynamics
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。