NvidiaのTensorRTがGoogleのTensorFlowのフレームワークと統合
Nvidiaの年次報告では、KaldiとKubernetesの最適化およびアクセラレーションも明らかに
Nvidiaは、その年次GPU技術会議において、いくつかの業務提携と、ソフトウェアプラットフォームのアップデートを発表しました。その内容は、潜在的な推論マーケットを拡張して世界中にハイパースケールサーバー3,000万本を展開すると断言しています。
その中で最たるものは、Nvidiaが手がけるTensorRTの最新版です。ディープラーニングの推論最適化とランタイムをGoogle社のオープンソースの機械学習フレームワークに統合したものです。
次から次へ
Nvidiaのデータセンター部門のGMであるI.バック氏は「GPUアクセラレーションによってディープラーニング推論を行う製品は、巨大なニューラルネットワークであっても、リアルタイムに、最低限のコストで稼働できるようになります」と語りました。
「より高性能のアプリケーションやフレームワークへのサポートを急速に拡張拡大させて、我々はディープラーニングの精度を向上させ、3,000万本ものハイパースケールサーバーにかかるコストを削減することができます」
GoogleのエンジニアディレクターR.モンガ氏はこう付け加えました。「TensorFlowの研究開発チームはNvidiaと密に連携して、Nvidia GPUからディープラーニングコミュニティへ出来る限り最高のパフォーマンスをもたらすでしょう」
「我が社のTensorFlowとNvidiaのTensorRTが一本化されて、今や、8倍の高速推論スループット(一般のGPUが低レイテンシで実行するのに比べて)を、Volta Tensor Core技術を利用することでディープラーニングプラットフォームにもたらしています。これにより、TensorFlow上でGPU推論が最高のパフォーマンスを発揮できるようにします」
大手クラウドサービス事業者の平均的な負荷を基準に考えると、TensorRT4ソフトウェアは、データセンターにかかるコストを70%までカットできるとNvidiaは断言します。
SAPの機械学習部門長M.ノガ氏は「NvidiaのTesla V100 GPUを搭載した当社のディープラーニングベースの推奨アプリケーションをTensorRTに実行させるテストをしたところ、推論スピードとスループットが、CPUベースのプラットフォームに比べ、実際45倍になりました。我々はTensorRTが法人顧客の生産性を劇的に向上させうると確信しています」
Nvidiaは、Google発祥であるオープンソースシステム向けにGPUアクセラレーションを発表しました。コンテナ型のワークロード管理プラットフォームKubernetesです。同社は、KubernetesはGPUの性能を向上させオープンソースコミュニティに貢献すると述べています。
評価の高い音声認識フレームワークKaldiもGPU向けに最適化されたとNvidiaは述べています。Nvidiaは、AmazonやFacebook、マイクロソフトと緊密に連携して、Caffe2やChainer、CNTK、MXNetそしてPytorchのようなONNXフレームワークを利用する開発者が、Nvidiaのディープラーニングプラットフォームを容易に展開できるようします、と補足しました。
– Data Center Dynamics
– 原文はこちら
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。