
Nvidiaが自社クラウド「DGX Cloud」の外部展開を縮小
今後は社内のAI研究開発向けに再構築
かつては自社の大口顧客と競合する可能性もあった「DGX Cloud」ですが、Nvidiaはその戦略を見直し、主に社内研究用途に特化する方針を取ることになりました。
The Informationによると、DGX Cloudは他社クラウドサービス上に構築されたクラウドプラットフォームで、ユーザー獲得に苦戦しており、同時にAWSやGoogleなどのハイパースケーラーとの関係にも緊張が生じていたと報じられています。
今後、このサービスは主にNvidia社内のAI研究者向けに利用される予定です。
Nvidiaは、AWSやGoogleなどから自社GPUを借りるために少なくとも130億ドルを支出する契約を結んでおり、それらをServiceNowなどの他社に再貸し出すことで、最大1500億ドルの収益を見込んでいました。
しかし、クラウド事業者を直接利用するよりも価格が高くなることから、大きな成功を収めることができず、Nvidiaは新規顧客へのDGX Cloud提供を停止しました。さらに、決算報告書でもDGX Cloudに関する支出の記載を控えるようになりました。
一方、DGX Cloud責任者のAlexis Black Bjorlinは、The Informationに対し、「DGX CloudはNvidiaのAI研究開発において大きな成功を収めています。クラウドパートナーと協力してコンピュートスタックやCUDA AIスタックを最適化するためのサンドボックスとして機能しているDGX Cloudは完全に活用されており、需要超過の状態です。現在、規模の拡大を進めています。」と反論しています。
同氏は昨年、DCDのインタビューで「多くの顧客はAI/MLアプリケーションの開発に集中したいと考えており、インフラ管理には関心が薄いです。DGX Cloudはそのニーズに応えるユニークなサービスであり、私たちは、顧客のどのような需要にも応えています。」と語っていました。
今年5月には、Nvidiaは「DGX Cloud Lepton」という新たなコンピュートマーケットプレイスを立ち上げ、CoreWeave、Crusoe、Firmus、Foxconn、GMI Cloud、Lambda、Nebius、Nscale、ソフトバンク、Yotta Data ServicesなどのGPUプロバイダーと連携しています。
一方で、これらの企業の一部からは、Nvidiaが彼らの顧客と直接関係を築こうとしているとの懸念も出たためスタートが遅れ、Leptonの成功は不透明です。
この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。
この記事へのコメントはありません。