AWSが機械学習トレーニングチップTrainiumを発表

来年、Intel Habanaとともにクラウドに登場

AWSは、機械学習モデルをトレーニングする新たなチップ「Trainium」を発表しました。

Trainiumは同社内で開発され、推論ワークロードにフォーカスする既存プロセッサ「Inferentia」に加わります。

それぞれのクラウドは島のよう

チップの詳細については明らかにされていませんが、Trainiumはクラウド上の機械学習インスタンスの中で最大値のテラフロップス性能を提供するだろうと、Amazonは主張しています。

同社の発表によりますと、標準的なAWS GPUインスタンスと比較してスループットは30%高く、推論あたりのコストは45%低くなるとしています。しかし、2021年後半のリリースまでに、新しいGPUがリリースされる可能性があり、それに伴い価格は変更される可能性があります。

そのベンチマークについても明らかにされていないため、Googleが自社開発する、まもなく第4世代となるTPUチップと比較することはできません。

一方でAmazonは、別の機械学習プロセッサ Intel Habana Gaudi を同社のクラウドサービスで展開していく事も計画しています。

インテルは2019年に20億ドルでHabana Labs社を買収後、すぐに自社のNervanaラインナップを収束させ、置き換えました。

現在、Habana Gaudiプロセッサの準備はほぼ整い、2021年初頭にはEC2インスタンスとしての利用が可能になります。インテルによりますと、8基のGaudiプロセッサを使用するEC2インスタンスは、TensorFlowで行うResNet-50モデルのトレーニングで、毎秒約12,000枚の画像を処理できると言います。同社はまた、機械学習ワークロードに関して、現在のGPUベースのEC2インスタンスよりも40%優れたコストパフォーマンスを誇ると述べています。

「弊社のポートフォリオは、人工知能(AI)が万能のコンピューティングの解決策ではないという事実を反映している」と、インテルのデータプラットフォームグループの最高戦略責任者を務めるRemi El-Ouazzane氏は述べています。

「今日のクラウドプロバイダーは、インテルXeonプロセッサの組み込みAIパフォーマンスを広く使用して、AI推論ワークロードに取り組んでいる。Habanaと共に、AIモデルを大規模にトレーニングするコストを削減し、この急成長する市場に対し、魅力的で競争力のある代替手段を提供していく」

Data Center Dynamics

原文はこちら

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。