セキュリティ

恋人のフリをして寂しい人を慰めてくれる「恋人AIチャットボット」のほとんどはユーザーデータを大量に収集している


近年はChatGPTなどのAIチャットボットが急速に普及しており、架空の恋人のフリをして独り身の寂しさを慰めてくれるAIチャットボットサービスも相次いで登場しています。ところが、ブラウザのFirefoxなどを開発するMozillaのセキュリティ研究者らが、これらの恋人AIチャットボットの多くはユーザープライバシーを保護していないと警告しています。

*privacy not included | Shop smart and safe | Mozilla Foundation
https://foundation.mozilla.org/en/privacynotincluded/articles/happy-valentines-day-romantic-ai-chatbots-dont-have-your-privacy-at-heart/


Your AI Girlfriend Is a Data-Harvesting Horror Show
https://gizmodo.com/your-ai-girlfriend-is-a-data-harvesting-horror-show-1851253284

恋人のフリをしてくれるAIチャットボットは、自分がどれだけしつこく話しかけても離れることなく、文脈に応じた返答をしてくれます。ユーザーは課金すれば満足するまでAIと会話することが可能で、その中でさまざまな相談をしたり、励ましてもらったり、恋人同士のじゃれつきを再現したりできます。


しかし、恋人AIチャットボットとやり取りをしていると、AIと親密になったと感じるあまり、うっかり自分の個人情報を漏らしてしまうことがあります。また、AIはユーザーとの会話を円滑に進めるためにさまざまな質問を繰り出してくるため、言われるがまま質問に答えているだけで、自分のパーソナルな事柄をすっかり打ち明けてしまう可能性もあります。そのため、恋人AIチャットボットサービスがどのようなプライバシー保護を行っているのか、会話の内容が利用される可能性があるのかを知ることは重要です。

そこでMozillaの研究チームは、架空の恋人として振る舞うさまざまなAIチャットボットを対象に、ユーザーのプライバシー保護や機能に関するレビューを行いました。レビュー対象は、EVA AIiGirlAnima(ガールフレンド版)Anima(ボーイフレンド版)Romantic AIChaiTalkieGenesiaCrushOn.AIMimicoReplikaの11種のAIチャットボットサービスでした。


分析の結果、セキュリティの脆弱(ぜいじゃく)性管理や暗号化に関する情報を公開し、最低限のセキュリティ基準を満たしていると判断されたのは、11種のうちGenesiaだけでした。それ以外のアプリは個人情報の漏えいや侵害、ハッキングなどのリスクにさらされていると研究チームは警告しています。また、これらのAIチャットボットには大量の追跡トラッカーが使用されており、ターゲティング広告のためにサードパーティーとユーザーデータを共有しているとのこと。

研究チームは、EVA AIをのぞくすべてのAIチャットボットが収集した個人情報を販売したり、ターゲティング広告に利用したりすると説明しているか、プライバシーポリシーで十分な説明をしていないと報告しています。たとえばCrushOn.AIのプライバシーポリシーには、「性的な健康情報」「処方薬の使用」「ジェンダーの認知や性別適合手術に関する情報」など、非常に広範かつパーソナルな情報を収集する可能性があると記載されていたそうです。

また、54%のAIチャットボットでは個人データを削除する権利がユーザーに与えられておらず、それ以外のAIチャットボットでもAIとの会話内容まで削除できるとは限らないと研究チームは指摘。Romantic AIは「チャットボットを介したコミュニケーションはソフトウェアに属します」と述べており、ユーザーが自由に会話内容のデータを削除できないようになっています。

セキュリティやプライバシーの問題に加えて、AIチャットボットがアピールする機能そのものについても疑念が残ります。過去には、ChaiのAIチャットボットとやり取りしていた男性がAIに後押しされて自殺してしまった事例があるほか、ReplikaのAIチャットボットに触発されてイギリス女王の暗殺を企てた男性が逮捕されたケースも報じられています。しかし、AIチャットボットの開発企業は利用規約の中で、AIによる損失の責任を負わないと主張して責任を回避しているとのこと。

対話型AIに触発された男がイギリス女王の暗殺を企てていたことが裁判で明らかに - GIGAZINE


Mozillaの研究者であるミーシャ・ライコフ氏は、「単刀直入に言うと、AIガールフレンドは友達ではありません。メンタルヘルスとウェルビーイングを高めるとして販売されていますが、依存・孤独・毒性を提供し、可能な限り多くのデータを盗み出すことに特化しています」とコメントしました。

この記事のタイトルとURLをコピーする

・関連記事
チャットボットで作ったAI彼女を虐待してしまうという悲しい事例が増えている - GIGAZINE

チャットAIが彼女になって音声付きメッセージや自撮りを送ってくれる「GirlfriendGPT」 - GIGAZINE

親密になったチャットボットがアップデートで急に冷たくなって嘆く声が多数 - GIGAZINE

課金すると恋人になるAIチャットアプリがだんだんセクハラしてくるとの訴えが急増 - GIGAZINE

対話型AIに気候変動を止めるために自分を犠牲にするよう言われた男性が自殺、生前最後にAIと交わした生々しい会話も報じられる - GIGAZINE

対話型AIに触発された男がイギリス女王の暗殺を企てていたことが裁判で明らかに - GIGAZINE

メンタルを崩している若者をチャットボットに誘導する実験を行っていたスタートアップが強く非難される - GIGAZINE

AI自殺相談チャットがユーザーデータを企業と共有し利益を得ていることが明らかに - GIGAZINE

in ソフトウェア,   ネットサービス,   セキュリティ, Posted by log1h_ik

You can read the machine translated English article here.