脳を模したアーキテクチャはAIの学習に必要な計算能力を削減できる可能性があると研究者らが主張

より効率的なシステムへの道を開く可能性論文は提示

バイオロジー(生物学)に着想を得たアーキテクチャに基づいてAIを設計する新たなアプローチは、ChatGPTのようなシステムを運用するために必要なデータセンターの数を削減できる可能性があると、ジョンズ・ホプキンス大学の研究者は考えています。

『 Nature Machine Intelligence』に掲載された論文の中で、同大学の認知科学部門のチームは、AI構築における従来のアプローチに異議を唱えています。従来は数カ月を要し、数十億ドルを費やし、数千メガワットもの電力を必要とするディープラーニングやトレーニングの手法が重視されてきましたが、彼らはそれよりもアーキテクチャ設計を優先すべきだと主張しています。

OpenAI の GPT-5 のような大規模言語モデルを構築するには膨大な計算能力が必要です。これはデータを処理し、モデルを学習させて正確な応答を返せるようにするために使われます。このようなシステムの急速な人気拡大がAIブームを牽引しており、世界中の市場で大規模データセンターが急ピッチで建設されています

しかし、ジョンズ・ホプキンス大学の科学者たちは別の道があると考えています。

「現在のAI分野の動きは、膨大なデータをモデルに投入し、小さな都市規模のコンピュートリソースを構築することにあります。それには数千億ドルの支出が必要です。一方で、人間はごく少量のデータで視覚を学習します。」と、筆頭著者であるジョンズ・ホプキンス大学認知科学准教授のMick Bonner(ミック・ボナー)は述べています。
「進化がこのデザインに収束したのには理由があるはずです。私たちの研究は、脳に近いアーキテクチャ設計がAIシステムに非常に有利なスタート地点を与えることを示唆しています。」

ボナーとそのチーム(ジョンズ・ホプキンス大学とケベックAI研究所の研究者が参加)は、AI開発者がAIシステム構築の青写真として一般的に使用する3種類のネットワーク設計、すなわちトランスフォーマー、全結合ネットワーク、畳み込みネットワークに注目しました。

科学者たちはこれら3つの青写真、すなわちAIアーキテクチャを繰り返し改変し、数十種類のユニークな人工ニューラルネットワークを構築しました。その後、これらの新しく、かつ未学習のAIネットワークに物体・人物・動物の画像を見せ、人間や霊長類が同じ画像を見たときの脳活動とモデルの反応を比較しました。

トランスフォーマーと全結合ネットワークに人工ニューロンを大幅に追加しても、ほとんど変化は見られませんでした。しかし、畳み込みニューラルネットワークのアーキテクチャを同様に調整すると、人間の脳のパターンをより忠実に模倣したAIの活動パターンを生成できることが分かりました。

研究者らによると、これら未学習の畳み込みニューラルネットワークは、通常は数百万〜数十億枚の画像でトレーニングされる従来のAIシステムに匹敵する性能を示しました。これはアーキテクチャが研究者が以前考えていた以上に重要な役割を果たすことを示唆しています。

「もし膨大なデータでのトレーニングこそが本当に重要な要素であるなら、アーキテクチャの変更だけで脳のようなAIシステムに近づくことは不可能なはずです。」 とボナーは述べています。
「つまり、正しい青写真から始め、生物学から得られる他の知見も取り入れれば、AIシステムの学習を劇的に加速できる可能性があります。」

次に、研究者らは生物学をモデルにしたシンプルな学習アルゴリズムを開発し、新たなディープラーニングフレームワークを構築する研究に取り組んでいます。

各企業もまた、学習や実行に必要な処理能力を削減できる、より効率的なAIモデルの構築を目指しています。今年初めには、中国のAI研究所 DeepSeek が、他の主要モデルと同等の性能を、わずかな学習コストで実現したとされるオープンソースAIモデルを発表し、世界中に衝撃を与えました。ただし、その一部の主張には異論も出ています。

この記事は海外Data Centre Dynamics発の記事をData Center Cafeが日本向けに抄訳したものです。

関連記事一覧

  1. この記事へのコメントはありません。