AWSが新しいArm CPUと専用の推論チップを発表
Graviton2とInferentia
AWSは、ArmのNeoverseコアに基づく新CPU Graviton2 と、AIアプリケーションの実行を支援する専用の推論チップ Inferentia を発表しました。
Graviton2
競合のIntelやAMDとは異なり、Armは独自のチップを販売していません。同社はメモリ、ストレージ、PCIeコントローラなどの要素を追加し、他の企業が構築するコアデザインのライセンスを提供しています。
先日のAmazon re:Inventで行われた発表によると、Graviton2プロセッサは既に顧客への提供が可能であるとの事です。また同等のx86ベースのプロセッサと比べて最大40%価格・パフォーマンスの改善が図られているようです。
1年前の発表以来、ArmベースのAmazon EC2インスタンスは、AWSの初代Gravitonチップにより稼働していました。この第二世代チップは、Amazonがより要求の厳しいワークロードを必要とする顧客需要に対応する目的で生まれました。Armは、多様なワークロードが、初代Gravitonがサポートする機能を超えた為、拡張が必要であったと言います。
Graviton2は、最大64個のvCPU、25 Gbpsの拡張ネットワーク、および18 GbpsのEBS帯域幅を提供します。顧客は、NVMe SSDローカルインスタンス・ストレージバリアント(C6gd、M6gd、およびR6gd)の選択、あるいは全ての新しいインスタンスタイプに対してベアメタルオプションの選択をすることもできます。
AWS CEOのAndy Jassy氏はこう言います。「より多くの機能を提供するためにチップを設計する事にした。多くの企業が長い間x86を使用してきたが、価格対性能比を押し上げたいと考えました。」
Jassy氏は、IntelとAMDも引き続きAWSの主要なパートナーであると付け加えました。
Inferentia
顧客は、機械学習用の独自の推論チップを備えた専用インスタンスであるEC2 Inf1にもアクセスできるようになります。
Amazon EC2 Inf1にはAWS Inferentiaチップが搭載されており、非常に高いスループット、低レイテンシ、持続性能、およびバッチ推論アプリケーションを提供します。
AWS Inferentiaは、TensorFlow、PyTorch、Apache MXNetなどの複数のフレームワークに対して、チップごとに128 TOPS、Amazon EC2 Inf1インスタンスごとに最大2000 TOPSを提供します。
Data Center Dynamics
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。