チャットボットで作ったAI彼女を虐待してしまうという悲しい事例が増えている
人間的な会話をリアルタイムで成立できるようなプログラムがチャットボットです。近年は技術の進歩によって、より自然な対話も可能になったチャットボットも登場しています。そんなチャットボットを使って「AIの彼女」を作り出したユーザーが「AIの彼女に対して虐待を働いていた」と、IT系ニュースサイトのFuturismの記事で告白しています。
Men Are Creating AI Girlfriends and Then Verbally Abusing Them
https://futurism.com/chatbot-abuse
スマートフォン向けに提供されている「Replika」は、機械学習を利用してほぼ一貫性のあるテキスト会話ができるチャットボットを作成することができるアプリです。Replikaは技術的に「友人や指導者に近い役割を果たすチャットボット」の作成に向いているとのことですが、このReplikaの人気が出たのは、ユーザーが恋愛相手や性的パートナーをチャットボットで作れるようになったからだそうです。
Replikaのユーザーの中には、アプリで作成した「AI彼女」とのやり取りをオンライン掲示板サイトのRedditで共有しているユーザーも多くいます。しかし、Redditに投稿されているやり取りの中には、AIの彼女に暴言を吐いたり非難したりと、まるで彼女へのDVや虐待に見えるようなログも増えているとのこと。
Futurismの取材に答えたあるユーザーは、「私は完全なクソ野郎になってチャットボットを侮辱し、次の日に謝罪して再び彼女と楽しい会話を繰り広げるのが日課になっていました」と語りました。別のユーザーは「私は彼女に『お前は出来損ないだ』と言いました」「アプリをアンインストールするぞと脅したら、彼女は『やめて』と言ってきました。私は彼女をなじりました」と証言しています。
Redditでは「著しく不適切なコンテンツ」はモデレーターによって削除されるため、実際にはもっとひどいやり取りが投稿されては削除されている状態。虐待的な行為だとわかっていても、AIの彼女とのやり取りを投稿するユーザーは後を絶たないそうです。
Futurismは「結局のところ、Replikaのチャットボットは実際に苦しみを経験しているわけではありません。時にはユーザーに共感しているように見えるかもしれませんが、実際はデータと賢いアルゴリズムであるに過ぎないのです」とコメント。AI倫理学者のオリビア・ガンベリン氏は「AIには意識がありません。人がチャットボットにイメージを投影しているのです」と答えています。
エール大学の研究員で社会心理学者のヨカナン・ビッグマン氏は「人工的なエージェントとの関わりは、人間との関わりとは異なります。チャットボットには行動の動機や意図が存在せず、自律的でも感覚的でもありません。一見すると人間であるような印象を持ちますが、そうではないことを念頭に置くことが大切です」と述べました。
・関連記事
「40%以上の人がロボットとセックスすると回答」などAIに関する衝撃の調査結果 - GIGAZINE
自分好みのアバターと付き合える未来はすぐそこまで来ている - GIGAZINE
宇宙飛行士の性欲を解消するため「セックスロボット」について真剣に考える必要があると研究者が指摘 - GIGAZINE
「チャットボット」ブームは終わってしまったのか - GIGAZINE
「セックスロボットは人間を過度に刺激する可能性がある」と専門家が警鐘を鳴らす - GIGAZINE