スタンフォード大の報告書でAIの透明性に大きなギャップが明らかに

スタンフォード大学の研究者は、OpenAIやGoogleなどの企業のAI基盤モデルの透明性を評価する新しいレポートを発表しました。

この報告書の狙いは、複雑で成長し続けるこの分野の規制に苦慮している政府に対して、最初の対策を提供し、より高いレベルの基盤モデルの透明性を維持するよう企業に呼びかけることです。

この指標は、スタンフォード大学人間中心人工知能研究所の基盤モデル研究センターによるもので、データのオープン性や各モデルの訓練に使用される人間の労働力など、さまざまなパラメータで測定さ れています。

大規模なデータセットで訓練されたAIシステムは、幅広いタスクを実行できる基盤モデルとして知られています。ライティングやコーディングを含む基盤モデルは、ジェネレーティブAIの躍進を牽引する企業によって開発されることが多くなっています。スタンフォード大学のPercy Liang教授が強調したように、過去3年間、AIの能力が上昇している一方で、透明性は低下していることがよく報告されています。

この報告書には、モデルのトレーニングデータや、製品を作成するために使用された計算量など、透明性に関する100の異なる指標について、人気のある10モデルを採点する指標が含まれています。その結果、最も透明性の高いモデルであるMetaのLlama 2は100点満点中53点と半数強を獲得し、OpenAIのGPT-4は47点でした。一方、AmazonのTitanは100点満点中わずか11点で、透明度は最低ランクでした。

マイクロソフトが支援するOpenAI製品ChatGPTの発売以来、あらゆる規模の企業が関心を示し、業界全体の注目を集めています。意思決定と自動化のためのこれらのモデルへの需要と依存が高まるにつれ、レポートの著者は、その限界と偏りについての理解を深めることの重要性を強調しています。

W.Media (Madeline Smith 記者)より抄訳・転載

関連記事一覧

  • コメント ( 0 )

  • トラックバックは利用できません。

  1. この記事へのコメントはありません。