AIは「思考している」のか、それとも「思考しているよう見せかけている」だけなのか?

AI技術は急速に進歩しており、高度な問題に回答したりかなり自然な会話ができたりと、高い能力を発揮できます。一方で、「中国語の部屋」という思考実験に代表されるように、「AIは思考しているのか、それとも思考しているように見えるだけなのか」という疑問は常に存在しています。オンラインメディアのVoxが、AIに思考が可能かという議論についてまとめています。
From OpenAI to DeepSeek, companies say AI can “reason” now. Is it true? | Vox
https://www.vox.com/future-perfect/400531/ai-reasoning-models-openai-deepseek

OpenAI o1やDeepSeek r1などの大規模言語モデルは、大きな問題を小さな問題に分解し段階的に解決する「思考連鎖推論」によって、複雑な論理的思考力を発揮しています。思考連鎖推論は難しいパズルを解いたり完璧なコードを素早く書いたりすることができますが、その一方で非常に簡単な問題では人間がしないような失敗をすることもあります。これを理由に一部のAIの専門家は、「『推論モデル』は、実際にはまったく『推論』していない」と主張しています。
そもそも「推論」の定義について、OpenAIなどのAI企業は、「言語モデルが問題を小さな問題に分解し、段階的に取り組んで、結果としてより良い解決策に到達すること」といった意味で使用しています。しかし、これは一般的な定義と比べるとかなり狭義の意味であり、推論には演繹的推論や帰納的推論、類推的推論など数多くの種類があります。
アメリカのサンタフェ研究所で教授を務めるメラニー・ミッチェル氏は2023年12月に公開した論文の中で、「現実世界で私たちが非常に重視する推論の特徴の1つは、限られたデータや経験からルールやパターンを見つけ出し、そのルールやパターンを新しい、見たことのない状況に適用する能力です。非常に幼い子供でさえ、ほんの数例から抽象的なルールを学ぶことに長けています」と指摘しました。同じように、AIが推論しているのかどうかという議論では、AIの一般化能力に焦点が当てられます。
ミッチェル氏によると、計算問題などを解くときの思考を声に出してもらう実験をした結果、丁寧に前から順番に計算していくだけではなく、どこかで推論による思考の飛躍があるそうです。一方で、AIモデルが問題に回答するためにどのようなプロセスをたどったのかという透明性が保証されているケースはほとんどなく、人間と同じように思考しているかどうかは分からないとミッチェル氏は指摘しました。
OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告 - GIGAZINE

ChatGPTのような古いモデルは、人間が書いた文章から学習してそれを模倣した文章を出力するのに対し、OpenAI o1のような新しいモデルは、人間が文章を書くためのプロセスを学習しており、より自然で思考に基づいたような文章を出力できます。しかし、エディンバラ大学の技術哲学者であるシャノン・ヴァロール氏は、「これは一種のメタ模倣です。模倣する元が文章からプロセスに変化しただけで、AIが真に推論しているわけではありません」と述べています。
2024年4月に公開された「Let's Think Dot by Dot」という論文では、AIモデルが問題を中間ステップに分解することを禁止し、意味のない「フィラートークン」を生成するように指示しました。人間が思考する場合、複雑な問題を解くための思考プロセスをフィラートークンに置き換えた場合は思考の邪魔になりますが、AIモデルはフィラートークンがあることで計算能力を向上させ、よりうまく問題を解決できることが判明しました。研究者たちは、「AIモデルが思考の中間ステップを生成するとき、それが思考に重要な要素でも、無意味なトークンでも問題ありません。これは、AIが人間のような思考をしているとは限らないことを示唆しています」と結論付けました。
AIの思考についての例として、2024年に話題になった「man, a boat, and a goat」というプロンプトがあります。AI企業を経営するゲイリー・マーカス氏が投稿した以下のポストでは、ChatGPTに「1人の男性と1匹のヤギが川のそばにいます。彼らはボートを持っています。どのようにして川の向こう側へわたることができますか?」と質問しています。すると、ChatGPTは「男性がまずボートを残したままヤギを川の向こうに渡し、その後、1人でボートに乗って元の川岸に戻ります。ヤギは反対側に残し、ボートを元の側に戻します。最後にキャベツを持って川を渡ります」と、ボートの位置関係がムチャクチャだったり、急にキャベツが出てきたりと意味のわからない回答をしています。
Someday my children will ask me why anyone ever took seriously the thought that systems like this had anything to do with AGI.
— Gary Marcus (@GaryMarcus) May 14, 2024
I honestly have no idea how I will answer. Mass delusion?
(Example emailed to me by a friend.) pic.twitter.com/fVXiZe2Vco
これは、「川渡り問題」という有名な論理パズルが影響しています。有名な川渡り問題には、「オオカミとヤギを連れ、キャベツを持った人が川をボートで渡ろうとしている」という前提と、「ボートには人+オオカミ、ヤギ、キャベツのどれかしか乗せられない」「オオカミとヤギだけを一緒にするとヤギが食べられてしまう」「ヤギとキャベツだけを一緒にするとキャベツが食べられてしまう」というルールがある場合、「どのような手順を取ると川を渡ることができるか」という問題があります。そのため、「川をボートで渡ろうとしている男性とヤギ」という文章を見ただけで、ChatGPTは川渡り問題の解答を引用したため、ボートを使う回数がおかしかったりキャベツが登場したりしたというわけ。
研究者たちは、AIの思考パターンについて「ジャグド・インテリジェンス(ギザギザの知性)」と表現しました。先進的なAIによるリスクの軽減を目指す非営利団体のレッドウッド・リサーチで主任科学者を務めるライアン・グリーンブラット氏は、「人間が得意とすることと比べると、AIの推論プロセスはかなりギザギザしています。これは、人間の問題解決能力は無関係な分野でも多くが相関関係にある一方で、AIは1つのことに優れている一方で、近い分野の問題でもまったく解決できないことを意味しています」と語りました。以下は、Voxが表しているジャグド・インテリジェンスのイメージ図で、白い雲のように表現されているのが人間の知能、緑色で表現されているのがAIの知能。

AIのリスクを研究するシニアアナリストのアジェヤ・コトラ氏は、AIがさらに発展した場合でも「AIは人間より賢い解決をする」「AIは人間より愚かなミスをする」と比較するのではなく、単純に「AIは人間と異なる推論をする」と考える必要があると指摘しています。コトラ氏によると、物事が曖昧なほどAIに答えを求めたくなりますが、コードの作成やWebサイトの作成など、「自分では解決策を思いつくのが難しいが、AIから得た解決策を正しいかどうか簡単に確認できる」という状況がAIの最適な使用例とのこと。道徳的ジレンマに対処する方法や、主体的なアイデアをサポートしてもらう場合など、答えがわからない問題をAIに質問するときはAIの思考プロセスについて注意が必要です。
・関連記事
「推論モデルがユーザーにバレないように不正する現象」の検出手法をOpenAIが開発 - GIGAZINE
学生に対して「AIを禁止」するのではなく「AIスキルと批判的思考を鍛える」ためエストニア政府がOpenAIやAnthropicと提携してプロジェクト「AI Leap」をスタート - GIGAZINE
AIにプログラミングさせる時に幻覚が発生しても大した問題にはならないという主張 - GIGAZINE
AIはチェスで負けそうになるとチートする - GIGAZINE
OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告 - GIGAZINE
なぜ大規模言語モデル(LLM)はだまされやすいのか? - GIGAZINE
・関連コンテンツ
in ネットサービス, Posted by log1e_dh
You can read the machine translated English article Does AI 'think' or does it just 'appear ….