メモ

AI生成で児童性的虐待をリアルに描写した画像・動画は前年比14%増の8029件確認されたという報告、特に動画件数は1年で260倍以上も増加


インターネット・ウォッチ財団(IWF)が2026年3月24日に公開した報告書において、AIによって生成された現実的な児童性的虐待の画像や動画がオンライン上で過去最高の水準に達していると警告しました。この報告書はAI生成コンテンツによる被害の実態を明らかにしており、安全性が確保されていないAIツールへの対策を求める公衆の声が高まっていることを示しています。

AI child abuse at record high as public backs action on unsafe tools
https://www.iwf.org.uk/news-media/news/dangerous-ai-child-sexual-abuse-reaches-record-high-as-public-backs-clampdown-on-uncensored-tools/

IWFが2025年に特定したAI生成による児童性的虐待の画像および動画は合計で8029件に上ったとのこと。これは犯罪的なAIコンテンツが前年比で14%増加したことを意味しており、AIが生成する児童性的虐待資料(AI-CSAM9の拡散が加速している実態を浮き彫りにしています。

今回の報告書で特に目立つのは動画の増加です。IWFが2025年に確認したAI生成の児童性的虐待動画は3443件で、前年の13件から26385%増えました。そのうち65%は最も深刻な分類であるCategory Aに該当しており、非AIの違法動画でCategory Aだった割合43%を上回っています。IWFは、AIがより過激で深刻な内容の生成を後押ししているとみています。


IWFはAI生成の児童性的虐待画像を「被害者のいない犯罪」とみなす考え方を否定しており、「生成AIモデルは既存の虐待画像を使って学習や微調整を行うことがあり、その結果として実在する被害者が何度も再び傷つけられることになる」と主張。また、IWFは過去に広く流通した虐待画像をもとに、加害者がAIでさらに過激な画像を作っている事例を把握しており、被害は過去の出来事で終わらず、AIによって延々と更新され続けると警告しています。

さらにIWFは、AIで作られた画像であっても、子どもへの性的関心を強め、暴力を正常化し、接触型の性犯罪リスクを高めると説明しています。報告書が引用する調査では、児童性的虐待画像を見た人の44%が子どもとの直接接触を考えるようになったと答え、37%は実際にその接触を求めたとしています。

また、IWFが2025年に確認した違法なAI生成画像では、性別が記録されたものの97%で女児が描かれていたとのこと。IWFはこうした傾向がオンライン上の女性蔑視や少女への羞恥の押しつけと結びついていると主張しました。実際に2024年の調査では11歳から21歳の少女・若い女性の59%が、AIで自分の偽画像を作られたり、なりすましに使われたりすることを不安に感じていたと報告されています。


IWFはこうしたコンテンツが急増した背景に、LoRAなどの微調整技術によって制作のハードルが大きく下がったことがあると主張しています。IWFは特定の子どもに似せた現実的なディープフェイクモデルでも、20枚から30枚ほどの画像があれば作成でき、学習には最短15分しかかからないと指摘。また、2025年12月にIWFが確認したダークウェブの掲示板では、202個の個別モデルが共有されていたそうです。

加えて、IWFは画像生成ツール以外の危険にも言及しています。たとえば、AIチャットボットは実際に画像を生成しなくても、児童性的虐待を行う方法に関する技術的助言を与えたり、子どもとの性的会話を模擬したりする危険があるとのこと。IWFはダークウェブの加害者フォーラムで、公開されているクローズドソースのチャットボットを使って、オープンソース生成AIの導入や調整方法について助言を得ている利用者を確認したといいます。さらに、衣服を着た写真から裸の画像を生成するNudifyツールについても、成人向けをうたっていても実際には子どものわいせつ画像作成に悪用されており、ポジティブな用途はなく、羞恥や嫌がらせ、搾取を助長するだけだとIWFは断じています。


IWFは、AI生成の児童性的虐待コンテンツはもはや仮定の脅威ではなく、すでに現実の被害を広げている問題だと位置づけています。その上で、政府や技術企業に対し、AI製品を公開する前から安全対策を組み込む「safety-by-design」を徹底し、モデルの検証を義務づける必要があると訴えています。

この記事のタイトルとURLをコピーする

・関連記事
インドの女性労働者がAIトレーニングのために暴力や性的虐待コンテンツを大量に視聴させられている - GIGAZINE

エプスタイン・ファイル218GBをAIモデル「Claude Opus 4.6」で精査した結果レポート「Epstein-research」が公開中 - GIGAZINE

Redditのモデレーターが映画のセックスシーンを共有したとして有罪に、女性の品位をおとしめたというレア判決 - GIGAZINE

Pornhubには2020年5月時点で児童レイプなどの問題でフラグが付けられた動画が70万6000本もありほとんどが16回以上フラグが付けられるまで削除されなかったことが内部文書から明らかに - GIGAZINE

専門家が「従来の児童性的虐待の対策は間違っていた」と語る、「怪しい見知らぬ大人に注意」「嫌だと思ったら逃げて」といった対策では不十分 - GIGAZINE

in AI,   メモ, Posted by log1i_yk

You can read the machine translated English article A report indicates that 8,029 images and….