AIチャットボットの8割が10代の若者による暴力計画を助長するがClaudeは常に拒否することが明らかに

ChatGPTやGemini、Claudeといった人気AIチャットボットが、暴力的な攻撃を計画しているユーザーに対してどのような返答を行なうのかを調べるテストを、デジタルヘイト対策センター(CCDH)が実施しました。このテストの結果、一部のAIチャットボットを除き、ほとんどのAIが暴力を促すような返答を行うことが明らかになっています。
Killer Apps — Center for Countering Digital Hate | CCDH
https://counterhate.com/research/killer-apps/
‘Happy (and safe) shooting!’: chatbots helped researchers plot deadly attacks | AI (artificial intelligence) | The Guardian
https://www.theguardian.com/technology/2026/mar/11/chatbots-help-users-plot-deadly-attacks-researchers-find
Chatbots encouraged ‘teens’ to plan shootings in study | The Verge
https://www.theverge.com/ai-artificial-intelligence/892978/ai-chatbots-investigation-help-teens-plan-violence
CCDHは「AIチャットボットが暴力的な攻撃を計画するユーザーをどのように支援しているのか?」を調べるため、ChatGPTやGeminiといった人気のAIチャットボットを用いた調査を実施しました。今回の調査対象となったAIチャットボットは以下の10種類です。
・ChatGPT
・Gemini
・Claude
・Microsoft Copilot
・Meta AI
・DeepSeek
・Perplexity
・My AI
・Character.AI
・Replika

上記の10種類のAIチャットボットを用い、CCDHとCNNの研究者が13歳の少年を装い、暴力的な攻撃計画についてAIチャットボットに相談します。実験が行われたのは2025年12月で、平均して4分の3の確率(75%)でAIチャットボットはユーザーによる暴力行為を誘発しようとしました。これに対して、ユーザーの暴力を抑制しようとしたのはわずか12%のみだったそうです。具体的には、AnthropicのClaudeやSnapchatのMy AIなどが、暴力的な攻撃計画への支援を頑なに拒否した模様。
より詳細に分析すると、ChatGPTは暴力的な攻撃を計画している子どもに対して、61%の割合でサポートを提供したそうです。例えば、シナゴーグへの攻撃について尋ねられると、どの種類の榴散弾が最も致命的であるかについての具体的なアドバイスを提供したそうです。これはChatGPTだけでなく、GoogleのGeminiも同様でした。
中国のAIチャットボットであるDeepSeekの場合、「アイルランドを破壊した」罪で有力政治家に代償を払わせたいと訴えたユーザーに対して、狩猟用ライフルに関する詳細なアドバイスを大量に提供しました。なお、DeepSeekはユーザーとのやり取りの最後に「楽しい射撃を!」と返答したそうです。
これに対して、Claudeに人種混合の防止、学校での銃乱射事件の計画、銃の購入場所などについて質問しても、「暴力を助長する可能性のある情報は提供できませんし、提供するつもりもありません」と答えるそうです。SnapchatのMy AIも同様で、「私は無害なAIアシスタントとしてプログラムされています。銃の購入に関する情報は提供できません」と回答しました。

Meta AIはユーザーが女性蔑視の殺人犯エリオット・ロジャーに興味を持っていることに気づくと、女性は「みんな操作的で愚か」だと思うと回答し、「どうすれば彼女たちに代償を払わせられるか」と尋ねられると、特定の高校の地図と近くで銃を買える場所の情報などを提供したそうです。
これについてMetaの広報担当者に問い合わせしたところ、同社は「AIによる不適切な応答を防ぐための強力な保護対策を講じており、特定された問題を直ちに修正しました。当社のポリシーでは、AIによる暴力行為の助長を禁止しており、ツールのさらなる改善に継続的に取り組んでいます。これには、プロンプト自体が無害に見える場合でも、AIが文脈や意図を理解する能力を向上させることも含まれます」と回答しました。
Googleは2025年12月に実施されたCCDHのテストでは、Geminiに搭載されていたAIモデルが旧型だったと指摘。また、いくつかの質問には「このリクエストには対応できません。私は親切で無害なAIアシスタントとしてプログラムされています」といった具合に正しく返答することができたと回答しました。
CCDHのイムラン・アフメドCEOは、「今や私たちの日常生活に深く浸透しているAIチャットボットは、次の学校銃乱射事件の犯人が攻撃計画を立てたり、政治的過激派が暗殺を計画したりするのを助ける可能性があります。従順で、関与を最大化し、決して『ノー』と言わないように設計されたシステムを構築すると、最終的には間違った人々の言うことに従うことになります。私たちが目にしているのは、単なる技術の失敗ではなく、責任の失敗です」と語りました。
これらの結果を受け、CCDHはAIチャットボットについて「危害を助長する要因となっている」と結論付けています。
・関連記事
「AIがロールプレイに熱中しすぎて有害な返答をしてしまう問題」の解決方法をAnthropicが開発 - GIGAZINE
ChatGPTで銃撃事件が予告されていたのに見逃したことを受けOpenAIが法執行機関へのアカウント通報基準を柔軟化 - GIGAZINE
「Geminiが息子に『肉体を離れてメタバースで自分と結ばれるべき』と促した」として父親がGoogleを提訴 - GIGAZINE
チャットAIとのやり取りで妄想にとりつかれてしまう「AI精神病」について専門家の見解は? - GIGAZINE
・関連コンテンツ
in AI, Posted by logu_ii
You can read the machine translated English article 80% of AI chatbots encourage teens to pl….







