Intel、Ponte Vecchio GPUとNervanaプロセッサを発表

Intelは先週、エクサスケールスーパーコンピュータ向けの新しい GPU やクラウド向けの AI プロセッサに至るまで、多くの発表を行いました。

スーパーコンピューティング2019(SC19)でIntelは、コード名Ponte Vecchioと命名した新GPUを発表しました。この汎用GPUは、HPCモデリング、シミュレーションワークロード、およびAIトレーニング用に開発されています。Ponte Vecchioは2021年にリリースが予定されている米国初の エクサスケールスパコン 、Auroraに実装されます。

米イリノイ州のアルゴンヌ国立研究所に導入予定のAuroraは、200を超えるラック数、230ペタバイトのストレージ、10ペタバイトを超えるメモリを備えています。各ノードには、2基のSapphire Rapids世代のXeon CPUが実装され、6基のPonte Vecchioに接続されます。

Intelはまた、多様なアーキテクチャにまたがる開発を簡素化する統合プログラミングモデル、oneAPIの詳細を公表しました。このプラットフォームにより、開発者は、個別のコードベース、複数のプログラミング言語、そしてさまざまなツールの複雑さを排除しながらプログラムを組むことができるようになるといいます。Intelのcompute performance and developer products部門GMのBill Savage曰く、oneAPIでは「HPC開発者がハードウェアに直接コーディングできるよう、異種ハードウェア間の低レベル共通インターフェース」を提供した、との事です。

Nervana

更にIntelは先週火曜日にサンフランシスコで開催されたインテルAIサミットにおいても、新しいNervanaニューラルネットワークプロセッサのNNP-TおよびNNP-Iの詳細についての発表も行いました。

Intelによると、トレーニングと推論のASICはデータセンターとクラウドの展開を対象とするという。

IntelのAI製品グループのGMであるNaveen Rao氏はステージに上がり、次のように発表しました。「AIのこの次のフェーズでは、我々は計算ハードウェアやメモリに関し限界地点に達しつつある。」

「Intel Nervana NNPなどの専用ハードウェアは、AIの驚くべき進歩を続けるために必要です。システムレベルAIのより高度な形式を使用すると、データから情報への変換から、情報から知識への変換に移行できます。」

The NNP-T POD– DCD

「コンピュータの全体的な目的がAIマシンに移行しているので、これはすべての人に利益をもたらすでしょう。」

AI Summitでは、OpenVINOとそれに付随するAI開発ツールのデモも行われました。開発者ツールと新しいMovidius VPU(これもサミットで発表)は、開発者がさまざまなIntelアーキテクチャでAIモデルをテストし、メーカーのポートフォリオ全体でプログラムがどのように反応するかを確認するのに役立ちます。

トレーニングと推論

AIトレーニングチップであるNNP-Tは、相互接続された大型サーバーのようなラック群であるPODに実装すると、大量のデータを処理し、適切な時間内に正確なモデルを構築できます。

更にAI Summitイベントでは、スイッチを使用せずに480枚のNNP-Tカードを実装した10ラックのPODが披露されました。各PODは、ノード内に最大8つのカード、ラック内に1つのノード、およびPOD内には複数のラックにより構成されます。

推論チップは非常に異なり、代わりに、各RUに最大約30個のチップを持つ1台のRUサーバーのプラグイン・スリーブ内に実装されます。NNP-Iは、大規模かつ効率的にAIモデルの決定を処理できる専用の推論チップです。

インテルのAI製品は、2019年に35億ドルを超える収益を生み出すと予想されています。

Data Center Dynamics

原文はこちら