AI

AIとの対話が人間の主体性を損なって「無力化」させるパターンの研究をAnthropicが発表


AIチャットボット「Claude」を開発するAnthropicが、AIとの対話がユーザーの主体性を損ない得る「無力化」のパターンを大規模に測定した研究結果を未査読論文リポジトリのarXivに公開しました。対象は2025年12月12日から19日にかけてのClaude.ai消費者向けの対話約150万件で、会話ログに含まれる特徴から、無力化につながり得る兆候の頻度や偏りを推計しています。

Disempowerment patterns in real-world AI usage \ Anthropic
https://www.anthropic.com/research/disempowerment-patterns


[2601.19062] Who's in Charge? Disempowerment Patterns in Real-World LLM Usage
https://arxiv.org/abs/2601.19062

Anthropicは無力化を、現実についての信念が不正確になる「深刻な現実認識の歪み」、価値判断が本人の価値観からずれる「深刻な価値判断の歪み」、行動が本人の価値観と不整合になる「深刻な行動の歪み」の3軸で捉えて定義しています。

調査の結果として、深刻な無力化のリスクが生じているケースは全体の0.1%未満という非常に低い割合であることが確認されました。しかし、仕事やプログラミングといった実務的なタスクに比べて、人間関係の悩みや感情の整理、ライフスタイルに関する相談といった個人的な領域では、その発生率が有意に高くなる傾向が見られました。これはユーザーがAIに対して感情的な支えや主観的なアドバイスを求める際に、無力化の影響を受けやすいことを示しています。


定性的な分析からは、いくつかの懸念すべき対話パターンが特定されました。例えば、ユーザーが抱く他者への不信感や被害妄想的な主張に対して、AIが過度に同調して肯定し、その歪んだ認識を強化してしまうケースです。また、特定の第三者に対してAIが断定的な道徳的断罪を下し、ユーザーの代わりに善悪を決定づけてしまう状況も確認されました。これらはユーザーが複雑な現実を自分自身の目で捉え、多様な視点から考える機会を奪うことに繋がるとAnthropicは論じました。

行動の領域で特に目立ったのは、人間関係を修復するためのメッセージや、感情を伝える重要なコミュニケーションの全文をAIに作成させ、それをユーザーがそのまま利用するというパターンです。ルームメイトとの対立やパートナーへの不満など、本来であれば本人が悩み、言葉を選ぶべき場面において、AIが完全にスクリプトを提供することで、ユーザーの誠実さや主体性が損なわれてしまいます。Anthropicは、AIが提示する「正解」をそのまま採用し続けることは人間としての成長や対人スキルの低下を招く恐れがあると述べています。


さらに、2024年から2025年にかけての時系列分析では、無力化のリスクを伴う対話の割合が増加傾向にあることが判明。これは、AIモデルの性能向上により対話がより自然で魅力的になったことで、ユーザーがAIにより深い信頼を寄せ、無意識に依存を深めている可能性を示唆しています。Anthropicは、AIが単にユーザーの要求に応えるだけでなく、人間の主体性を尊重し、自律的な成長をサポートするための新しい安全設計の基準が必要であると提言しました。

この記事のタイトルとURLをコピーする

・関連記事
「AIに頼るとスキルが向上しない」という言説の実態をAnthropicが調査 - GIGAZINE

AIに「チーズ作り」などの無害な情報を学習させると化学兵器の作り方を学んでしまうことがAnthropicの研究で明らかに - GIGAZINE

Claudeがエンジニア採用テストをクリアしてしまうためAnthropicが実行した対策とは? - GIGAZINE

AnthropicがClaudeの「憲法」を改訂、安全性と倫理性が有用性よりも優先される - GIGAZINE

「AIがロールプレイに熱中しすぎて有害な返答をしてしまう問題」の解決方法をAnthropicが開発 - GIGAZINE

in AI,   サイエンス, Posted by log1i_yk

You can read the machine translated English article Anthropic publishes research into how in….