ソフトウェア

ChatGPTやGeminiのようなAIチャットボットとの会話に共感を覚えてしまう言語トリックをコミュニケーションの専門家が解説


ChatGPTやGeminiなどのAIチャットボットは大規模言語モデルがベースとなっており、対話形式で人間と自然な会話を行うことが可能です。その内容には間違いもあり、完全に信頼できるものではありませんが、ユーザーに寄り添うように対話を続けることができます。スペインのサンティアゴ・デ・コンポステーラ大学コミュニケーション科学部の博士研究員であるクリスチャン・オーガスト・ゴンザレス=アリアス氏が、人間がAIチャットボットとの対話に共感を覚えてしまう仕組みを解説しています。

ChatGPT’s artificial empathy is a language trick. Here’s how it works
https://theconversation.com/chatgpts-artificial-empathy-is-a-language-trick-heres-how-it-works-244673

ChatGPTやGeminiなどのAIチャットボットは、単に馴染みのある言葉やフレーズを使うだけでなく、人間のコミュニケーションパターンを模倣しています。これにより、文脈に沿った一貫性のある会話が可能となり、さらにユーモアや共感といった感情さえも表現できるというわけです。


人間の言語の最も特徴的な性質の一つは「主観性」だ、とゴンザレス=アリアス氏。主観性は感情的なニュアンスを伝える言葉や表現、個人的な意見の表明として現れるもので、出来事に対する意見を形成し、文脈的・文化的要素を使用します。

ゴンザレス=アリアス氏は、人間の言語における主観性の典型的な特徴の一つは「人称代名詞の使用」だと主張しています。「私」や「私たち」といった一人称代名詞は、個人的な考えや経験を表現することを可能にします。一方で「あなた」という二人称代名詞は、相手と関わりながら会話の二者間の関係を構築することができます。


例えば、ユーザーが「家の片付けをしています。どの物を残し、寄付し、捨てるべきか、どうやって決めればいいですか?」と尋ねたとします。これに対して、AIチャットボットは「いい質問ですね!持ち物の整理は大変な作業になることがありますが、明確な戦略があれば、あなたは容易に決断できるでしょう。残す物、寄付する物、捨てる物を決めるためのアイデアをご紹介します」と回答します。

この回答で、AIチャットボット「私」や「私の」という一人称代名詞を直接使用してはいませんが、アドバイザーやガイドの役割を担い、「アイデアをご紹介します」といったフレーズを通じて、そのアイデアをAIチャットボット自身のものとして提示しています。

AIチャットボットは助言者としての役割を担うことで、たとえ一人称代名詞が明示的に使われていなくても、ユーザーは個人的に話しかけられているように感じます。さらに、「~をご紹介します」という表現の使用は、AIチャットボットが価値あるものを提供する存在というイメージを強化します。


そして、「あなた」は、直接ユーザーに語りかける言葉です。これは先の例の複数の箇所で見られます。例えば、「持ち物を整理する(Organising your belongings)」や「あなたは容易に決断できるでしょう(you can make these decisions easier)」といったフレーズです。個人的に話しかけるような形にすることで、AIチャットボットはユーザーが会話に積極的に参加しているように感じさせることを目指しています。

このような言語は、他者を積極的に関与させようとするテキストでよく見られます。「いい質問ですね!」のような表現は、ユーザーの質問に対して肯定的な印象を与えるだけでなく、参加を促す効果があります。「持ち物の整理は大変な作業になることがあります」といったフレーズは、共通の経験を示唆し、ユーザーの感情を認識することで共感の錯覚を生み出します。


AIチャットボットが一人称を使用することは、自己認識をシミュレートし、共感の錯覚を作り出そうとするものです。また、二人称を使用して助言者としての立場を取ることで、ユーザーを引き込み、親密さの認識を強化します。この組み合わせにより、人間らしく、実用的で、アドバイスに適した会話が生成されます。

ただし、ゴンザレス=アリアス氏は「その共感は実際の理解からではなく、アルゴリズムから生まれています」と釘を刺しています。アイデンティティやパーソナリティをシミュレートする非意識的な存在との対話に慣れることは、長期的な影響をもたらすかもしれません。これらの対話は私たちの個人的、社会的、文化的生活に影響を与える可能性があるためです。


ゴンザレス=アリアス氏は「これらの技術が進歩するにつれ、実在の人物との会話とAIシステムとの会話を区別することは、ますます困難になっていくでしょう」と予想しています。人工と人間の境界がますますあいまいになることは、コミュニケーションにおける真正性、共感、意識的な存在の理解に影響を与えます。人間はAIチャットボットを意識のある存在として扱うようになり、その実際の能力について混乱を生じさせる可能性があります。

また、機械との対話は人間関係に対する私たちの期待も変える可能性もあります。人間同士の対話は感情、誤解、複雑さによって彩られています。長期的に見ると、AIチャットボットとの繰り返しの対話により、対立に対する私たちの忍耐力や、対人関係における自然な不完全さを受け入れる能力が低下する可能性も考えられます。ゴンザレス=アリアス氏は「素早く、シームレスで、対立のない対話に慣れていくにつれ、実在の人々との関係においてより不満を感じるようになるかもしれません」と推測しました。


さらに、シミュレートされた人間との対話への長期的な接触は、倫理的・哲学的なジレンマを引き起こします。これらの存在に感情や意図を持つ能力といった人間的な特質を帰属させることで、私たちは意識的な生命と完全なシミュレーションの価値について疑問を持ち始めるかもしれません。これはロボットの権利や人間の意識の価値に関する議論を引き起こす可能性すらあると、ゴンザレス=アリアス氏は述べています。

ゴンザレス=アリアス氏は「人間のアイデンティティを模倣する非感覚的な存在との対話は、コミュニケーション、関係性、アイデンティティに対する私たちの認識を変える可能性があります。これらの技術はより高い効率性を提供できますが、その限界と、機械や人間同士の対話に与える潜在的な影響について認識しておくことが重要です」と論じました。

この記事のタイトルとURLをコピーする

・関連記事
Googleが開発した画像分類タスクが可能な機械学習モデル「Vision Transformers」の仕組みとは? - GIGAZINE

ChatGPTなどのチャットAIがどんな風に文章をトークンとして認識しているのかが一目で分かる「Tokenizer」 - GIGAZINE

ChatGPTにも使われる機械学習モデル「Transformer」が自然な文章を生成する仕組みとは? - GIGAZINE

ChatGPTなどの大規模言語モデルはどんな理論で成立したのか?重要論文24個まとめ - GIGAZINE

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article here.