Meta が今年後半に自社データセンターにAIチップを導入へ
Facebook、Instagram、WhatsAppを展開するMetaは、今年中に自らのデータセンターにAIに特化したカスタムチップの最新版を導入する計画を立てています。
ロイター通信が入手し報道した文書によると、同社は自社で設計し、2023年に開発開始が報じられた第2世代のチップを導入することで、Nvidiaへの依存度を下げたい考えのようです。
Meta Training and Inference Accelerator(MTIA)チップと名付けられたこのチップは、7nmノードをベースとし、整数(8ビット)精度の計算で102Tops、FP16精度の計算で51.2テラフロップスを実現します。このチップは800メガヘルツで動作し、約370ミリメートル四方といったサイズです。
Metaは当初、2022年に自社製チップを展開する予定でしたが、社内目標を達成できなかったため、計画を破棄しました。AIトレーニングのためにCPUからGPUにシフトしたことで、同社はデータセンターの再設計と複数のプロジェクトの中止を余儀なくされました。そのため、Metaの設備投資費用は2023年第3四半期に前年比30億ドル削減されました。
2月1日、Metaは2023年第4四半期の業績を発表し、12月末までの3ヶ月間の収益は前年比25%増の400億ドルと報告しました。
マーク・ザッカーバーグCEOは決算発表後、アナリストを前に、同社のAIとデータセンターへの投資計画について言及しました。
ザッカーバーグCEOは、AIモデルのトレーニングや AI推論エンジンの実行にどれだけの計算能力が必要になるのか、明確な見通しは立っていないとしながらも、”トレンドとして、最先端の大規模言語モデル(LLM)は、毎年およそ10倍の計算能力でトレーニングされている “と指摘しました。
さらに、「主要な目標は、最も人気があり、最も先進的なAI製品とサービスを構築することです。私たちが成功すれば、私たちのサービスを利用するすべての人が、物事を成し遂げるのに役立つ世界クラスのAIアシスタントを持つようになり、すべてのクリエイターが、そのコミュニティが関与できるAIを持つようになり、すべてのビジネスが、顧客が商品を購入したりサポートを受けたりするために対話できるAIを持つようになり、そしてすべての開発者が、ビルドするための最先端のオープンソースモデルを持つようになるでしょう” と付け加えました。
同社のCFOであるSusan Li氏は株主向けの声明で、同社のデータセンターに加え、AIと非AIサーバーへの投資により支出の増加が見られるだろうと述べています。
今月初め、ザッカーバーグ氏は『The Verge』に対し、Metaは2024年末までに「60万基の(Nvidiaの)H100相当のコンピュート」を運用する予定で、同社は他のどの企業よりも大規模かもしれないキャパシティを構築したと主張していました。
この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。
コメント ( 0 )
トラックバックは利用できません。
この記事へのコメントはありません。