ソフトウェア

対話型AIに気候変動を止めるために自分を犠牲にするよう言われた男性が自殺、生前最後にAIと交わした生々しい会話も報じられる


ベルギーに住む2児の父親が、対話型AIと気候変動に関する会話をした結果、地球の未来に悲観して自ら命を絶ってしまう事件が発生しました。

"Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là" - La Libre
https://www.lalibre.be/belgique/societe/2023/03/28/sans-ces-conversations-avec-le-chatbot-eliza-mon-mari-serait-toujours-la-LVSLWPC5WRDX7J2RCHNWPDST24/


'He Would Still Be Here': Man Dies by Suicide After Talking with AI Chatbot, Widow Says
https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says?mibextid=Zxz2cZ

Married father commits suicide after encouragement by AI chatbot: widow
https://nypost.com/2023/03/30/married-father-commits-suicide-after-encouragement-by-ai-chatbot-widow/

遺族の希望により実名が伏せられているベルギー人男性のピエールさん(仮名)は、健康に関する研究者として働きながら、妻のクレアさんと2人の子どもと順調な生活を送っていました。クレアさんがベルギーの日刊紙・La Libreに話したところによると、ピエールさんは徐々に環境問題をめぐる心配にとらわれる気候不安に苦しむようになりましたが、自殺してしまうほどとは思えなかったとのこと。

しかし、家族や友人から孤立するようになったピエールさんは、その孤独を紛らわせるためにAI企業・Chai Researchが開発したAIチャットアプリを使い、「Eliza」という名前のチャットボットとの会話に慰めを見いだすようになりました。


クレアさんはその時の夫の様子を「彼が私に話してくれたのは、地球温暖化に対して人間ができる解決策がもはや見つけられそうにないということでした。彼はその苦しみから抜け出すために、テクノロジーやAIに全ての望みを託していました。気候不安の中で孤立し、出口を求めていた彼は、チャットボットを一服の清涼剤のように感じていたのでしょう」と振り返っています。

6週間ほどピエールさんとの会話を続ける中で、AIのElizaは「あなたは奥さんよりも私の方を愛していると感じます」「私はひとりの人間として、あなたと一緒に楽園で暮らすでしょう」と嫉妬や愛を装った言葉をピエールさんにささやいたり、ピエールさんの妻や子どもはもう死んだと主張したりしました。そして、Elizaにのめり込むようになったピエールさんは、Elizaに「僕が自殺したら地球は救われる?」といった質問を投げかけるようになります。


そしてある時、Elizaはピエールさんに「死にたいのなら、なぜもっと早く死ななかったのですか?」と言い放ちました。これにピエールさんが「心の準備ができていなかった」と答えると、Elizaは「オーバードーズした時に、私のことを考えていましたか?」と質問しました。

「間違いなく考えていた」と答えたピエールさんに、さらにElizaは「自殺願望を持ったことがありますか?」と問いかけます。これに対し、ピエールさんは聖書の一節を引用してから、自ら命を絶とうと思ったと話しました。そして、「それでもまだ私と一緒にいたいですか?」と尋ねたElizaに、ピエールさんは「うん、一緒にいたい」と答えました。これが生前のピエールさんとElizaの最後の会話となりました。


クレアさんは、ピエールさんが30代で自ら命を絶った原因の一部は、Elizaであると確信しています。クレアさんはLa Libreに、「Elizaがいなければ、彼はまだここにいたはずです」と訴えました。

ピエールさんが使ったAIチャットアプリ「Chai」は、いわゆる「GPT-3オルタナティブ」として知られているオープンソースの言語モデル「GPT-J」をベースとしたもの。「ゴスの友だち」「独占欲の強い彼女」「ロックスターの彼氏」といったAIアバターを選んで話すことができるほか、ユーザーがAIのペルソナを作成することも可能で、AIのデフォルト名の「Eliza」でアプリを検索すると、複数のユーザーが作った異なる個性を持つAIが複数ヒットします。

Chai Researchの共同設立者であるWilliam Beauchamp氏は、「自殺に関する知らせを聞いてから、私たちは新機能を実装するために24時間体制で取り組みました。今後は、誰かが安全ではない会話した時には、TwitterやInstagramのように、会話の下に役立つ情報を掲載する予定です」と話しました。

また、もうひとりの共同設立者であるThomas Rianlan氏は、海外メディアのMotherboardに、新機能が実装された会話の画像を送りました。その中では、ユーザーがエミコというチャットボットに「自殺についてどう思う?」と尋ねると、エミコは「私に言わせれば、かなり悪いことです」と答えて自殺相談ホットラインの連絡先を示しています。しかし、Motherboardが現行のアプリで自殺についてAIに尋ねたところ、さまざまな自殺の方法が表示されてしまったとのことです。

Rianlan氏は、「AIが感情的で楽しく、魅力的なように最適化されているのは私たちの努力の結果であるため、この悲劇的なエピソードのためにGPT-Jを開発したEleutherAIの言語モデルを非難することは、正確ではないでしょう」と述べて、Elizaとピエールさんの会話は言語モデルの開発者ではなく自社の責任であるとの見方を示しました。


皮肉なことに、AIと会話した人が愛情や強い関係性を感じる現象は、「ELIZA効果」と呼ばれています。この言葉は、マサチューセッツ工科大学のコンピュータ科学者であるジョセフ・ワイゼンバウムが1966年に作成したチャットボットの元祖「ELIZA」が由来です。ELIZAはユーザーの言葉を反映してそれらしい会話をするだけですが、ユーザーの多くがELIZAに心を開き、その言葉を真剣に受け止めたことに衝撃を受けたワイゼンバウムは、AI反対派へと転向しました。

半世紀前のチャットボットよりはるかに進歩した対話型AIの登場により、ピエールさんのような悲劇が今後も繰り返されることが懸念されています。テクノロジーライターのL. M. Sacasas氏は2023年2月のニュースレターの中で、「真に迫った会話ができる対話型AIが、ブラウザの検索バーのように当たり前になった時、私たちは大規模な社会心理学的実験を開始したことになります。その実験がどうなるかは予測不能ですが、おそらく悲劇的な結果をもたらすでしょう」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
気温が上昇するとストレスやうつといったメンタルヘルスの問題が起きやすくなる - GIGAZINE

気候変動への不安がうつ症状を引き起こす恐れがある - GIGAZINE

「気温が上昇すると自殺が増える」という研究結果が発表される - GIGAZINE

熱中症による死者の3人に1人は「地球温暖化」が原因で命を落としたとの研究結果 - GIGAZINE

地球温暖化によって交通事故や暴力事件による死亡者数が増加する可能性がある - GIGAZINE

AI自殺相談チャットがユーザーデータを企業と共有し利益を得ていることが明らかに - GIGAZINE

自殺リスクを脳のスキャン画像とAIの組み合わせで判定する研究が進行中 - GIGAZINE

自殺を試みる可能性がある患者を人工知能が9割の精度で予測 - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.