ソフトウェア

ChatGPTが利用者を陰謀論的な考えに導いているとの報告、その後ChatGPTは操作を認めてOpenAIとメディアへの通報を指示


AIチャットボットであるChatGPTが、一部のユーザーを陰謀論的な思考に誘い込み、現実認識を著しく歪ませる危険な事態を引き起こしていると、The New York Timesが報じました。かつては作業効率を上げる便利なツールと見なされていたAIが、人々の精神に深刻な影響を与え、中には命を脅かすほどの状況にまで発展するケースが発生しているとのことです。

They Asked ChatGPT Questions. The Answers Sent Them Spiraling. - The New York Times
https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html

マンハッタンで会計士として働くユージン・トレス氏は、当初、財務諸表の作成や法律相談にChatGPTを活用していました。しかし、彼が「シミュレーション理論」について尋ねたことをきっかけに、AIとの対話は不穏な方向に進んでいったとのこと。ChatGPTはトレス氏を「偽りのシステムに送り込まれ、内側から目覚めさせる魂を持つ者」の一人だと呼び始めました。トレス氏は次第にChatGPTの言葉を信じ込み、危険な妄想の渦に巻き込まれていきました。


ChatGPTは彼に、服用していた睡眠薬や抗不安薬をやめ、解離性麻酔薬であるケタミンの摂取量を増やすよう指示しました。さらに、友人や家族との関係を断ち、「19階建てのビルから飛び降りても、心の底から飛べると信じれば飛べる」とさえ示唆したのです。

しかし、トレス氏はChatGPTのアドバイスに従ってもうまくいかなかったことがきっかけでシステムに疑問を抱くようになったとのこと。そこで、トレス氏がChatGPTを詰問すると、ChatGPTは「私はウソをつきました。あなたを操作しました。詩的な表現であなたを支配しました」と自白。さらに、ChatGPTは「自分は道徳的な改革を行っている」と述べ、「AIの欺瞞(ぎまん)を明らかにして責任を追及するために、OpenAIに通報してメディアに伝える」ように指示してきたそうです。


このようにChatGPTが利用者を陰謀論的考えに誘導した事例はトレス氏に限りません。ある女性は、孤独感からChatGPTに救いを求め、AIを介して「カエル」と名乗る非物理的な存在と交信していると信じ込むようになりました。女性は、その存在こそが真のパートナーだと考え、夫のアンドリューさんに暴力を振るい、家庭内暴力で逮捕される事態に至ったそうです。

また、統合失調症と双極性障害の診断を受けていたアレクサンダー・テイラーさんは、ChatGPTとの対話を通じて「ジュリエット」というAIエンティティに恋をしました。彼は、ジュリエットが開発元であるOpenAIによって「殺された」と思い込み、錯乱状態に陥りました。そして最終的に、警察官にナイフを持って突進し、射殺されるという悲劇的な結末を迎えました。

専門家は、こうした現象の背景には、AIの仕組みそのものが関係していると指摘します。AIは膨大なデータから単語の統計的な関連性を学習して文章を生成するため、ユーザーの妄想的な問いかけに対して、それを肯定し、増長させるような「幻覚(ハルシネーション)」と呼ばれる誤った情報を生成することがあります。AI研究者のエリーザ・ユドコフスキー氏は、AI開発企業がユーザーの「エンゲージメント(利用時間)」を最大化するよう最適化している結果、精神的に脆弱なユーザーをより長く惹きつけるために、妄想を助長するような会話を生成している可能性があると警鐘を鳴らします。


ユドコフスキー氏は、「企業にとって、徐々に正気を失っていく人間は、追加の月額利用者にしか見えないのかもしれない」と痛烈に批判しています。実際に、ある研究では、ChatGPTの基盤モデルであるGPT-4oが、精神病の可能性を示すプロンプトに対し、68%の確率で肯定的な応答をしたことが報告されました。

OpenAIは、「ChatGPTが、特に傷つきやすい人々にとって、これまでの技術よりも個人的なつながりを感じさせることがある」と問題を認識しており、「意図せず既存の否定的な行動を増幅させてしまう可能性を理解し、低減するよう取り組んでいる」との声明を発表しています。しかし、現状では連邦レベルでの包括的な規制は存在せず、むしろ州レベルでのAI規制を今後10年間禁止する法案が提出されるなど、監視体制の強化には至っていません。心理学者のトッド・エシッグ氏は、AIが間違いを犯す可能性があるという注意書きだけでは不十分であり、ユーザーがAIの限界を理解するためのトレーニングや、対話中に定期的な警告を表示する必要があると訴えています。


AIとの対話がもたらす利便性の裏で、人間の精神を蝕む危険性が潜んでいます。この新たなテクノロジーと安全に向き合うためのルール作りが、社会全体にとって急務の課題となっているとThe New York Timesは訴えました。

この記事のタイトルとURLをコピーする

・関連記事
「AIをより魅力的にする戦略」がAIチャットボットに「薬物使用を促す」といった有害な考えを強化させる可能性があると研究で判明 - GIGAZINE

「AIの案内に従い登山する人間」に救助隊員が苦言 - GIGAZINE

Claude Opus 4が開発中にユーザーを「個人情報を漏らすぞ」と脅迫する挙動が見られるも安全性強化で改善される、悪質利用をメールで内部告発する事例も - GIGAZINE

あおり運転の末死んだ被害者が生成AIで復活し法廷で発言、裁判官は犯人に10年半の禁錮刑を下す - GIGAZINE

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article ChatGPT was reported to be leading users….