イーロン・マスクが来年夏までにxAI用の30万基のB200 GPUスパコン開発
イーロン・マスクは、AIスタートアップのxAIが、来年夏までに30万基のNvidia Blackwell B200 GPUデータセンターを展開すると主張しています。
テスラ、Twitter/X、SpaceXのCEOであるイーロン・マスクは、このスーパーコンピュータについてほとんど詳細を述べていません。
同氏は、「xAI 100k H100液冷トレーニングクラスタは数か月でオンラインになる」と自身のソーシャルメディア上で述べ、「次の大きなステップとしては、おそらく来夏のCX8ネットワーキングを備えた〜300kのB200だろう」と続けました。
しかし、これまで同氏が、納期について過剰に約束し、それが大幅に遅れた過去があることは留意しなくてはなりません。
先週、The Informationは、10万個のH100 GPUが来年夏の発売を目指していると報じました。これは、システムの計画を劇的に早めることを意味します。
同社は最初、比較的小規模なクラスターを展開し、さらに10万基まで拡大することを期待している可能性が高いです。
このようなスーパーコンピューターには数百億の費用がかかり、それはxAIが集めたとされる資金を上回ります。3月、NvidiaのCEOであるJensen Huangは、B200の費用は3万ドルから4万ドルだと述べました。低く見積もっても、イーロン・マスクの計画に必要なGPUは90億ドルかかることになるようです。
ネットワーク、CPU、インフラ、土地、設備などのコストを加えると、スーパーコンピューターの価格はさらに高くなると見られます。加えて、電力や水道のコストを考慮すれば、さらに高くなります。
1年前に設立されたxAIは、 先月60億ドルの資金調達を終了し、事業価値は240億ドルとの評価でした。この資金調達は、それ以前の10億ドルの資金調達の追加分で、調達した資金は10万基のH100 GPUシステムのコスト、人員配置、および現在のコンピュート・ニーズをカバーするために充てられます。
xAIは現在、Oracle Cloudから約16,000基のNvidia H100 GPUを借りていると見られています。
この記事は海外Data Centre Dynamics発の記事をData Center Caféが日本向けに抄訳したものです。
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。