AIの誤情報を疑うことなくそのまま受け入れる「認知的降伏」という状態に多数の人が陥っていることが明らかに、1372名の参加者と9000回以上の実験で

ペンシルベニア大学の研究チームが、AIの発展によって多くの人間が「AIに全て任せる」という思考プロセスを採用していることを実験でつきとめ、論文で発表しました。
Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender by Steven D Shaw, Gideon Nave :: SSRN
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

"Cognitive surrender" leads AI users to abandon logical thinking, research finds - Ars Technica
https://arstechnica.com/ai/2026/04/research-finds-ai-users-scarily-willing-to-surrender-their-cognition-to-llms/
人間の意思決定には大きく2つの仕組みがあるとされています。1つは「素早く、直感的で、感情的な処理」である「システム1」で、もう1つは「ゆっくりした、熟慮的で、分析的な推論」である「システム2」です。
ペンシルベニア大学の研究チームは、AIの登場によって人間の意志決定に新たな「システム3」が出現したとする論文を発表。論文によると、システム3では「人間の心ではなく、アルゴリズムシステムから生じる外部の自動化されたデータ駆動型推論」によって意志決定が行われるとのこと。
これまで、人間は電卓やGPSシステムなど、さまざまなツールを使って思考における一部の作業を自動アルゴリズムに委任しつつ、結果を自身の内的推論によって監視し、評価してきました。研究チームによると、AIが登場したことで、人間が監視や検証をせずAIの推論を丸ごと受け入れる「認知的降伏」を行う場合が出てきたとのこと。チームは「認知的降伏」が特に「AIが自信のありそうな文章をすらすらと出力する」場合によく見られるとも述べています。

研究チームはAIへの認知的服従を行う人間の割合を調べるため、「AIを使って回答するテスト」を行いました。テストは「直感的なシステム1」の思考プロセスを行いがちな参加者からは誤った回答を引き出すように、「熟慮的なシステム2」の思考プロセスを行いがちな参加者にとっては簡単に正答できるようになっていました。このテスト中、参加者は自由にAIにアクセスすることが可能でしたが、AIは50%の確率で誤った内容を出力するように設定されていました。
実験では参加者の多数がAIを使用しました。AIが正確だった場合、93%の参加者はAIを信じた一方、AIが不正確だった場合でも80%の参加者がAIを信じてしまいました。AIが不正確だったグループは、AIを使わずに脳だけで考えたグループよりも悪いスコアになってしまいましたが、「正しく回答できたと思う」と考える人はAIを使わなかったグループよりも11.7%も多かったとのこと。
別の実験では回答した瞬間に正誤が分かる即時フィードバックを取り入れた上で、正解した数に応じて少額の支払いを行うようにしたところ、参加者がAIの誤った出力を訂正する確率が19%増加したとのこと。しかし、30秒のタイマーを追加して時間的プレッシャーをかけるようにすると訂正する確率は12%減少しました。
1372人の実験参加者全体を通して行われた9500回以上のテスト結果を見ると、人間がAIの誤った出力を訂正する確率はわずか19.7%だったとのこと。研究チームは「人間はAIが生成した出力を意思決定プロセスに容易に取り入れ、多くの場合疑問に思わないことを示している」と述べています。

一方、研究チームはAIに思考を任せる「認知的降伏」はある種合理的とも指摘しています。今回の実験ではAIの正解率が50%しかなく、このような質の悪いAIに思考を任せるのは明らかに良くない結果につながりますが、統計的に優れたシステムを使った場合、特に「確率的設定」「リスク評価」「膨大なデータ」などが絡む分野では人間よりも優れた結果をもたらす可能性があるとのこと。
なお、「AIに推論を任せる場合、自分の推論能力は使用しているAIシステムの能力に左右される」という点に注意が必要と述べられています。
・関連記事
AIに踊らされず自分の思考を取り戻す方法とは? - GIGAZINE
製品レビューの「AIによるポジティブな要約」を読んだ人は購入する可能性が高くなる、AIのニュアンス改変が問題に - GIGAZINE
OpenAIが「AIがユーザーをだまして勝手に別のタスクを実行する危険性」を抑制する手法を開発 - GIGAZINE
「回復可能な意思決定」と「回復不可能な意思決定」を分けると迷いは減る - GIGAZINE
人間はなぜ決断するのに苦労するのか?どうすれば納得のいく決断ができるのか? - GIGAZINE
・関連コンテンツ
in AI, Posted by log1d_ts
You can read the machine translated English article A study involving 1,372 participants and….







