OpenAI Foundry、AIワークロードを実行する専用コンピュート機能を顧客に提供

Microsoft Azure上でホストされる可能性が高い

OpenAIは、顧客が同社のモデルに基づいて大規模な AI ワークロードを実行できるようにするため、Foundryと呼ばれる開発者向けプラットフォームの提供を開始します。

「Foundryは、モデルの構成とパフォーマンスプロファイルを完全に制御して、大規模な推論を可能にする」と、Twitterに投稿されたドキュメントには書かれています。

これは、”大規模ワークロードを実行する最先端の顧客向けに設計された ” コンピューティング能力の 静的な割り当てを実現することを目的としています。

顧客は、ChatGPT、Dall E、GPR3など、OpenAIが自身の研究で使用しているのと同じツールやダッシュボードを用いて、インスタンスを監視することができるようになる予定です。

「近日中に、OpenAIは我々の最新モデルに対して、より強固な微調整オプションを提供する予定」とドキュメントには書かれています。「Foundryは、それらのモデルを提供するためのプラットフォームとなる」

このサービスでは、99.5%のアップタイムと出張エンジニアリングサポートのSLAが提供されます。

GPT-3.5の軽量版を実行するには、3ヶ月の契約で月26,000ドル、1年の契約で264,000ドルの費用がかかるとされています。

また、モデルインスタンスDV(最大コンテンツ8K)の場合、3カ月で月78,000ドル、通年で792,000ドルとなります。

このドキュメントでは、そのコンピューティングがどこでホスティングされるかは明らかにされていませんが、おそらくMicrosoft Azure上だと思われます。

マイクロソフトは、同社にこれまで100億ドル以上を投資しており、同社の主要クラウド・プロバイダーとなっています。また、OpenAIのために特注のシステムを構築したこともあります。

この動きは、Amazon Web Servicesが今週、Hugging FaceのAIソフトウェア開発ハブを自社のクラウドに統合すると発表したことに続くものとなります。

この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。