マイクロソフト、大規模言語モデル用AIチップ「Athena」開発中

マイクロソフトは、コードネーム「Athena」と呼ばれる独自の内部人工知能チップを密かに開発していると報道されています。

The Informationによると、この半導体は2019年から開発が進められており、マイクロソフトとOpenAIの少人数の従業員がテスト用に利用できるようになっているといいます。

5nmプロセスノードのAthenaは、ここ数カ月に見られた生成AIの急増の中核である大規模言語モデル(LLM)などのソフトウェアをトレーニングするために作られています。しかし、これらのモデルの成長は、AIトレーニングチップのマーケットリーダーであるNvidiaのGPU不足によって妨げられています。

The Informationは以前、この半導体不足により、マイクロソフトが一部の社内チームに対してGPU割り当てを制限することになったと報じました。

Nvidiaのプロセッサーも高い利益で販売されているため、内部チップは同じワークロードを実行するための安価な方法となり得ます。しかし、Nvidiaのチップは、圧倒的な馬力だけでなく、AIワークロードの大半がNvidiaのために設計されており、数十年にわたる開発者の伝統があるため、ソフトウェア面で大きな優位性を持っています。

マイクロソフトは来年、Athenaを同社とOpenAI内で広く使用できるように展開する可能性がありますが、Azureの顧客にも広く利用できるようにするかどうかを議論していると伝えられています。

クラウドのライバルであるGoogleは、独自のAIチップファミリーであるTPUを開発しており、LLMを開発するための現在の唯一のライバルチップと広く見られています。Amazonは、独自の代替製品ラインであるTrainiumを持っています。

どちらもそれぞれのクラウド上でしか利用できず、顧客も見つかっています。自社での利用にとどまらず、各社がNvidiaとより有利な取引をするための交渉にも役立っていると思われます。



この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。



関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。