渋谷駅前で働くデータサイエンティストのブログ

元祖「六本木で働くデータサイエンティスト」です / 道玄坂→銀座→東京→六本木→渋谷駅前

AI研究者の76%が「現在のAIの延長上にAGIはない」と考えている(AAAI 2025 Presidential Panel Reportより)

各技術系メディアでは既に報じられていますが、今年のAAAI*1で会長名によってリリースされた"AAAI 2025 Presidential Panel on The Future of AI Research"の内容が非常に示唆に富んでいたので、改めてやや仔細に読み解いてみようかと思います。


なお、元のレポートは結構なボリュームがありいきなり精読しようとするとしんどいので、NotebookLMにまとめさせたサマリーと論点に対応した原文の箇所を適宜読み返して自分で補いながら*2、つらつらと論じていくこととします。ということで、hallucinationsなどあればご遠慮なくご指摘くだされば幸いです。

レポートの全体構成について(特にAI研究者へのアンケート)


研究・技術的内容に絞って本レポートの目次を抜粋したものが、以下です。Presidential panelと一口に言っても、非常に広汎なテーマに渡って議論が展開されていることが見て取れるかと思います。

  • AI推論 (AI Reasoning)
  • AIの事実性と信頼性 (AI Factuality & Trustworthiness)
  • AIエージェント (AI Agents)
  • AI評価 (AI Evaluation)
  • AI倫理と安全性 (AI Ethics & Safety)
  • 身体性AI (Embodied AI)
  • AIと認知科学 (AI & Cognitive Science)
  • ハードウェアとAI (Hardware & AI)
  • 社会善のためのAI (AI for Social Good)
  • AIと持続可能性 (AI & Sustainability)
  • 科学的発見のためのAI (AI for Scientific Discovery)
  • 汎用人工知能 (AGI) (Artificial General Intelligence (AGI))
  • AIの知覚対現実 (AI Perception vs. Reality)
  • AI研究アプローチの多様性 (Diversity of AI Research Approaches)
  • AI研究コミュニティを超えた研究 (Research Beyond the AI Research Community)
  • アカデミアの役割 (Role of Academia)
  • AIの地政学的側面と影響 (Geopolitical Aspects & Implications of AI)

基本的にはそれぞれのトピックについてpresidential panelの24名の研究者が監修・執筆してまとめた解説が主な内容となっていますが、同時に全てのトピックスに対してAAAI会員の研究者たちにアンケートを取った結果が付されています。そのため、このレポートを読むことである程度AI研究者コミュニティの「世論」を把握できるというのが、最大の特色と言って良いかと思います。


ということで、ここからは主に「ユーザーとして現在のAIを利用している」側にとって関心がありそうなトピックスを、僕の独断と偏見でピックアップして深掘りしてみようと思います。実際にAI関連の研究開発を行っている人たちにとってはそれらとはまた別の注目に値するトピックスが多数あるかと思われますが、そこは他の方々にお任せすることとします。


個人的に注目した論点


一旦以下の3点にトピックスを絞ってみました。上記の通り「ユーザー側の関心が高そうなもの」を選んだつもりですが、一方でチェックしてみたところ「研究者の側の関心が薄くてアンケート回答率も低いもの」を除外した結果であったりもします。

現在のAIの延長上にAGIは実現しない(76%)


これは各種技術系メディアでも喧伝された内容なので、既にご存知の方も多いかと思います。端的にいえば「現行のTransformerベースの手法のままではAGIは実現しない」ということで、昨年のNeurIPSでの講演でIlyaが主張していたのと同じポイントと見て良いでしょう。この点について、presidential panelは以下のような課題を指摘しています。

  • Transformerに代わるアーキテクチャ:そもそも現行のTransformerには「ある程度の前後関係を踏まえた学習」しか出来ず、これを解決するために例えばグラフニューラルネットワーク強化学習エージェントもしくはシンボリック推論システムといった他手法とのハイブリッドモデルが求められるかもしれない
  • 知識の保持と更新:静的なオフラインでの学習のみに頼るのではなく、動的でリアルタイムに更新されるストリーム的データに対する学習が必要
  • 長期記憶とその想起:ヒトが過去のエピソードや事実に基づく構造化された長期記憶を想起しながら思考するのに対して、現行のLLMにはそのような仕組みはない
  • 因果推論と反実仮想:AIモデルは膨大なデータセットから相関関係を見出すのは得意だが、因果関係を見出したり反実仮想を立てるのは苦手
  • アライメント、解釈可能性、安全性:Transformerを筆頭とする現代のブラックボックスAIは、説明するのが困難な出力を返すことが多く、これがそのまま安全性や信頼性の問題を引き起こしている

これらの課題感を反映してか、研究者アンケートでは76%が「現行の(Transformerをベースとする)AIの延長上にAGIは実現しない」と回答しています。また、77%がAGIを直接的に追求するよりも、リスクと利益のバランスが取れたAIシステムを設計する方を優先するべきだと答えています。


その一方で、70%がAGIの研究開発を制限することには反対しており、研究者コミュニティとしては「何らかのセーフガードをつけた上で継続的にAGIの研究を進めるべきだ」という姿勢を示しているとも言えそうです。

LLMの事実性・信頼性の問題はすぐには解決できない(60%)


生成AIというかLLMの良く知られた課題として、hallucinationsとそれに由来する種々の問題があります。それらを引っくるめてこのレポートでは「事実性・信頼性の問題」としてまとめて、AGIの章と同様に課題点を挙げています。

  • そもそも事実性の問題は未解決の度合いがまだまだ高い:SimpleQA*3のような事実性を問うことに特化したベンチマークが対象だと、2024年12月現在いずれのLLMでも半分以下しか正解できていない
  • 堅牢性の改善が求められる:学習プロセスに対してあえて摂動を加えることで堅牢性と一般性を与えるといった工夫が必要

まず、この章では前段となる概説のパートでもわざわざ「生成AI特にLLMは固定された貯蔵記憶から想起するのではなく分散した情報源から記憶を再構成する(のでhallucinationsは原理的に避けられない)」と述べられており、それらをファインチューニングやRAGといったLLMの「外側」の工夫で解消するという話題が展開されています。


それらを反映するように、研究者アンケートでも事実性の問題の解決に必要なものとして新たなモデルアーキテクチャ(73%)、次いで外部のファクトチェックツール(70%)が多数派意見として挙げられています。信頼性についても、新たなモデルアーキテクチャが最も重要視され(77%が重要または非常に重要)、次点としてモデルの推論プロセスの説明可能性(70%)、さらにはNNに代えて説明可能なモデルを使用すること(61%)が挙がっています。


ただ、これらのまとめとしての質問である「LLMの事実性・信頼性の問題はすぐには解決できない」に対しては賛成が60%とあまり多くなかったのは、研究者コミュニティの雰囲気としてはそこまで悲観的ではないということなのかもしれません。なお余談ですが、時々話題になる「生成AIに人間のような個性を与えればこれらの問題は解決する」という意見に対して賛同したのは24%に過ぎなかったそうです。

現在のAIに対する社会の認識と、AI研究開発の現実とが一致していない(79%)


これはAI研究開発そのものというよりはその社会的受容の問題ですが、この点に関しても本レポートでは様々な議論がなされています。ただ、どちらかというといきなり研究者アンケートの結果を見た方が面白いかもしれません。


まず、大前提として「現在のAIに対する社会の認識と、AI研究開発の現実とが一致していない(79%)」という研究者コミュニティの世論が示されています。その上で、90%が「この不一致がAI研究の妨げになっている」と答えており、そのうち74%がAI研究の方向性がそれらのhypeによって左右されてしまっている、12%が理論的なAI研究が影響を受けている、4%が学術研究に関心を持つ学生が減っている、と述べています。


その上でこのhypeに研究者コミュニティとしてどう対抗すべきかについても質問したところ、「AIに関する主張のファクトチェックを行う」(78%)、「AIの認識と現実に関する公開討論会の開催」(74%)、「一般市民(報道関係者やVCを含む)に対し多様なAI技術と研究分野について教育するイニシアティブの策定」(87%)といった項目に賛同が集まったとのことです。


コメントなど


とりあえず本レポートをザッと読んでみて思ったのは、「AI研究者コミュニティは相当に『驚き屋』たちに手を焼いている」んだなということでした。実際、ある程度機械学習の研究開発に関して知識がある立場から見れば極めて穏当な内容のレポートだと思うわけですが、これが各種技術メディアで割と大仰に取り上げられたということ自体がまさにhypeそのものでもあると思うんですよね。


ということでhypeの帰結としてのいわゆる「シンギュラリティ」論が今後どうなっていくか(そしてAI研究者コミュニティにどう悪影響を及ぼしていくか)についても色々考察してみたいところですが、某所経由で面白い議論が遥か以前からなされていることを知ったので、以下に簡単にご紹介しておきます。



それはWired誌の創刊編集長Kevin Kellyが2006年に発表した論考で、端的に言えば「シンギュラリティ論は終末論と同じである」という趣旨のことを述べているんですね。つまり、終末論同様に「XX年までに〇〇が起きる」と喧伝され、〇〇が起きなければ今度はYY年に「予言」が繰り延べにされる……ということの繰り返しが起きている、という。


この論考そのものには公式の日本語版もあり、他の内容も非常に興味深いので、ぜひご一読をお薦めいたします。

*1:アメリ人工知能学会:著名なトップ国際会議の一つ

*2:思ったよりもhallucinationsが多くて困った

*3:OpenAIが公開したLLMの事実性を評価する指標「SimpleQA」でモデルを測定してみた|調和技研ブログ