AWS、専用AIインフラをオンプレで提供する「AI Factory」サービスを開始

NvidiaまたはTrainiumチップで構築可能

AWSは、新サービス「AWS AI Factory」を開始し、顧客のデータセンターにAIインフラを提供します。

ラスベガスで開催されたカンファレンス、Re:Invent 2025で発表されたこのサービスは、Nvidia GPU、Trainiumチップ、さらにAWSのネットワーク、ストレージ、データベース等を含むAIインフラを顧客自身のデータセンターに導入するものです。

この専用インフラはユーザーが独占的に運用するものであるため、政府や大規模組織はコンプライアンスやソブリンニーズの要件を満たしながら、AIプロジェクトを拡張することが可能となります。AI Factoryは、プライベートAWSリージョンのように機能し、データの処理や保存場所を管理しつつ、基盤モデルなどのAWSマネージドサービスにもアクセス可能です。

顧客は、「Nvidia-AWS AI Factoriesの統合オプション」を選択することができ、これによりNvidiaハードウェア、フルスタックのNvidia AIソフトウェア、およびNvidiaコンピューティングプラットフォームにアクセスできます。AWS Nitro System、Elastic Fabric Adapter(EFA)のペタビット規模ネットワーク、およびAmazon EC2 UltraClustersも、Nvidia Grace Blackwellおよび次世代Nvidia Vera Rubinプラットフォームに対応しています。さらに、AWSは将来のTrainium4チップをNvidia NVLink Fusionに対応させる計画です。

NvidiaのHyperscale and HPC担当VP兼ゼネラルマネージャーであるIan Buckは、次のようにコメントしています。「大規模AIには、先進的なGPUやネットワークから、データセンターのあらゆる層を最適化するソフトウェアやサービスまで、フルスタックアプローチが必要です。AWSと共に、これらすべてを顧客環境に直接提供しています。」

「Nvidiaの最新アーキテクチャであるGrace BlackwellとVera Rubinを、AWSの安全で高性能なインフラとAIソフトウェアスタックと組み合わせることで、AWS AI Factoriesは組織が短期間で強力なAI機能を構築でき、統合ではなくイノベーションに完全に集中できるようにします。」

このAI Factoryの提供は、AWSのProject Rainierに基づいています。Project Rainierは、Trainium2チップを用いてAnthropic向けに作られたAI Factoryであり、サウジアラビアのHumainとの提携にもこのモデルが採用されています。

先月、AWSとHumainは、約15万個のAIチップ(Nvidia GB300およびTrainiumチップを含む)の導入を含め、提携を拡大したと発表しました。

HumainのTareq Amin CEOは、次のように述べています。「新しいAI ZoneにAWSが構築するAI Factoryは、HumainとAWSにとって数ギガワット規模の旅の始まりを意味します。このインフラは、地域および世界で加速するAIコンピュートの需要に対応するために設計されています。」

「この提携が特に際立っているのは、我々の目標の規模と協業の革新性です。我々は、大規模なインフラ構築の経験、エンタープライズグレードの信頼性、広範なAI能力、地域への深いコミットメントを持つAWSを選びました。グローバル市場拡大への共通のコミットメントを通じて、AIのアイデアが構築・展開・拡張される未来を形作るエコシステムを作り上げています。」

AWSのRe:Inventカンファレンスでは、Trainium3 UltraServersの発表や、AWSが計画しているTrainium4チップの詳細も公開されました。

さらに、AWSは最近、米国政府向けのAIおよびHPC能力を拡張するために500億ドルを投資する計画を発表しています。

この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。

関連記事一覧

  1. この記事へのコメントはありません。