ソフトウェア

AIと人間の「幻覚」はどう違うのか?


AIが誤った情報を生成してしまう「幻覚」が2023年のワード・オブ・ザ・イヤーに選出されるなど、AIの普及とともに幻覚の問題も一般的なものとなりました。そんなAIの幻覚と人間の幻覚の関連性や、幻覚の影響を最小限にしつつテクノロジーの恩恵を受ける方法について、専門家がまとめました。

Both humans and AI hallucinate — but not in the same way
https://theconversation.com/both-humans-and-ai-hallucinate-but-not-in-the-same-way-205754

◆そもそも人間の幻覚とは?
一口に幻覚と言っても幻覚や幻視などさまざまですが、AIの分野で使われる「誤った情報を生成してしまう」という現象を幻覚と定義すると、人間の幻覚は意図的なものと無意識なものに分けられます。このうち、無意識で起きるものは認知バイアス、つまり経験則によって引き起こされます。


オーストラリア連邦科学産業研究機構(CSIRO)の研究者であるクレア・ノーティン氏とサラ・ヴィヴィアン・ベントリー氏によると、こうしたバイアスの多くはそうする必要性から生じているとのこと。

人間は五感から大量に供給される情報を全て処理することはできないため、脳は直面している問題に素早く対応すべく、これまでの学習に基づく連想によって情報と情報の間にあるギャップを埋めています。


言い換えれば、人間の脳は限られた情報から正解を推測しているわけですが、情報の不足を他の情報で補っていると、本人は間違っていると気づかないまま事実ではないことを話してしまうケースが発生します。これは、精神医学では「作話(confabulation)」と呼ばれています。

他にも、現代人がAIと付き合っていく上で問題となるバイアスとして、まさにChatGPTのような自動化された意思決定システムを過度に信頼してしまう「自動化バイアス」、何かに対する第一印象がその後の評価にも影響を及ぼす「ハロー効果」、何かが他より流暢(りゅうちょう)でスムーズに処理されていると、その対象の価値が他のものより高く思えてしまう「流暢性ヒューリスティック(Fluency heuristic)」などが挙げられます。

ここで重要なのは、人間の思考は認知の偏りやゆがみによって脚色されているものであり、こうした幻覚は主に人間の意識の外で発生するという点です。


◆AIはどのように幻覚を見るのか?
人間とは異なり、大規模言語モデルは限られた精神的リソースを節約する必要はありません。そのため、AIの幻覚は純粋に「入力に対する適切な反応を予測する試み」が失敗したことを示しています。

一方、AIの幻覚と人間の幻覚との間には共通点もあります。それは、AIの幻覚もギャップを埋めようとすることで発生している点です。

大規模言語モデルは、入力された単語とシステムがトレーニングを通じて学習した連想に基づいて、文脈の中で次に出現する可能性の高い単語を予測し、これを元に回答を生成します。その過程で、人間と同じように最もありそうな回答を予測しようとしますが、人間とは違って大規模言語モデルは生成する内容を理解しているわけではありません。これが、しばしば見当違いな回答が幻覚として出力されてしまう原因です。

大規模言語モデルが幻覚を起こすのにはさまざまな原因がありますが、主なものとしては、不十分かまたは欠陥があるデータでトレーニングされたことです。ほかには、学習システムのプログラムに問題があるケースや、人間によるトレーニングで問題が大きくなるケースなどがあります。


◆幻覚を起こすAIとうまく付き合う方法
ノーティン氏らは、「私たちの失敗とテクノロジーの失敗は表裏一体であり、一方を修正すればもう片方も修正できます」と述べて、AIの幻覚の影響を最小限にするための方法として以下の3点を提唱しました。

・責任あるデータ管理
前述の通り、AIのバイアスはデータの不足か偏りに起因することが多いとされています。そのため、トレーニング用のデータが多様で典型的なものであるかを確認すること、バイアスを念頭に置いてアルゴリズムを構築すること、偏りや差別的な傾向を除外する技術を導入することで対処できます。

・透明性と「説明可能なAI」
前述のような対策を行っても、AIにバイアスが残り、それを特定することが困難なケースがあります。そこで、バイアスがどのようにAIに入り込み、システム内に波及したかを調べることで、生成された回答に存在する偏りの元をたどることができます。これが「説明可能なAI」という概念です。

・公共の利益の優先
AIの中に存在するバイアスに対応するには、「人間の説明責任と人間の価値観」を組み込む必要があり、その達成にはAIに携わる利害関係者が多様な背景、文化、考え方を持つ人々の代表であることが保証されていなければならないと、ノーティン氏らは説いています。


AIと人間がお互いの「幻覚」の影響を抑えつつ協力するというシステムの実現は、すでに始まっています。例えば、ヘルスケア分野では人間のデータの矛盾を検出して臨床医に注意を促す機械学習システムが登場しており、人間による説明責任を維持しつつ診断上の決定をAIで改善できるようになりました。

これ以外にも、SNSでの女性への嫌がらせ対策に取り組む人間のモデレーターの訓練にAIを活用するアムネスティ・インターナショナルの「Troll Patrolプロジェクト」や、衛星画像をAIで解析し、夜間照明の少なさから貧困地域を特定する学術研究などもあります。

ノーティン氏らは末尾で、「重要なのは、LLMの精度を向上させるという本質的な作業を行うだけでなく、LLMが持つ欠陥が私たち自身を映す鏡となっていることを無視すべきではないということです」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
2023年のワード・オブ・ザ・イヤーに「幻覚」が選ばれる、生成AIに関する新しい意味の追加で - GIGAZINE

大規模言語モデルが「幻覚」を引き起こすリスクを客観的に検証できるオープンソースの評価モデルをVectaraがリリース - GIGAZINE

1600以上のAPIを適切に呼び出してAIに付き物の「幻覚」を大幅に減らす言語モデル「Gorilla」が公開される - GIGAZINE

大規模言語モデルにウソの情報を埋め込んで誤った情報を生成させるチャットAI「PoisonGPT」が開発される - GIGAZINE

SNSにおいてAIは人間よりも人間らしく見える可能性がある - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.