AI

インドの女性労働者がAIトレーニングのために暴力や性的虐待コンテンツを大量に視聴させられている


AIをトレーニングするには大量のデータセットが必要であり、データに含まれるコンテンツへのラベル付けは主に人間が行っています。イギリスの大手日刊紙・The Guardianが、インドに住む女性労働者がAIのトレーニングのために暴力や性的虐待などを含むコンテンツを大量に視聴させられている実態を報じました。

‘In the end, you feel blank’: India’s female workers watching hours of abusive content to train AI | Global development | The Guardian
https://www.theguardian.com/global-development/2026/feb/05/in-the-end-you-feel-blank-indias-female-workers-watching-hours-of-abusive-content-to-train-ai


インドのジャールカンド州で家族とともに住んでいる26歳のモンスミ・ムルム氏は、国際テクノロジー企業のコンテンツモデレーターとして働いています。ムルム氏の仕事はAIシステムによって「プラットフォームのルールに違反している可能性がある」とフラグを立てられた画像・動画・テキストをチェックし、適切なラベルを付けて分類することであり、こうしたコンテンツのラベル付けによってAIシステムはさらにトレーニングされていきます。

ムルム氏は1日当たり最大800個ものコンテンツを閲覧していますが、その中には暴力や性的虐待といった過激なものが多数含まれます。The Guardianはムルム氏のPC画面に映し出された映像について、「女性が男たちに押さえつけられ、カメラが揺れ、叫び声と息づかいが聞こえます。あまりにも不快な映像なのでムルム氏は早送りしましたが、仕事のために最後まで見続けなくてはなりませんでした」と説明しています。


ムルム氏はThe Guardianに対し、「最初の数カ月は眠れませんでした。目を閉じると画面が読み込まれる様子が浮かびました」と述べています。ムルム氏は夢の中でも命に関わる事故や家族の死、性的暴力といったイメージから離れられなかったとのこと。その後は以前ほど精神的なショックを受けることは減りましたが、「結局、不安になるのではなくただ空っぽになったんです」とムルム氏は語り、依然として悪夢を見ることもあるそうです。

研究者らはこうした感情のまひや長く続く心理的影響が、モデレーション業務の特徴だと指摘しています。AI労働者の役割を調査するプロジェクト・Data Workers' Inquiryを率いる社会学者のミラグロス・ミセリ氏は、「リスクの観点から言えば、コンテンツモデレーションはあらゆる致命的な産業に匹敵する危険な仕事のカテゴリーに属します」と述べています。

以前の(PDFファイル)研究によると、コンテンツモデレーションは持続的な認知的・感情的ストレスを引き起こし、警戒心の高まりなどの行動変化につながることが多いことが示されています。労働者は侵入思考・不安・睡眠障害などを報告しており、インドの労働者を含むコンテンツモデレーターを対象とした2025年の研究でも、トラウマ性ストレスが最も顕著な心理的リスクであると特定されました。


大手テクノロジー企業は、コンテンツにAIトレーニング用のラベルを付与するデータアノテーション業務を国外に委託するケースが多々あります。インドのIT業界団体のNasscomによると、2021年の時点でインドでは約7万人がデータアノテーションに従事しており、その市場価値は約2億5000万ドル(約390億円)に達していたとのこと。この収益の約60%はアメリカ企業からのもので、インド企業によるものはわずか10%でした。

インドでデータアノテーションやコンテンツモデレーションに従事する人の約80%は、農村部や低カースト出身者、あるいは先住民などであり、労働力の半数以上は女性が占めています。これらの人々にとって、あらゆる種類のデジタル労働は農業や鉱業よりも清潔で時給も高く、安定的な仕事となっています。また、企業側も意図的に家賃や人件費が安い小規模な都市や町で事業を展開し、コストを抑えているそうです。

インド南部のベンガルールに拠点を置く研究機関・Aapti InstituteでAIやデータ労働者について研究するプリヤム・バダリヤ氏は、「仕事の尊厳であったり、貴重な有償雇用先であったりする事実が、人々に感謝の念を抱かせます。その期待が、労働者にこの仕事がもたらす心理的被害を問いただすことをためらわせるのです」と指摘しています。

故郷のウッタル・プラデーシュ州でデータアノテーションに従事するライナ・シン氏は、世界的なテクノロジープラットフォームと契約を結んだ外注先企業に雇われ、月収およそ330ポンド(7万円)で仕事をしていました。シン氏の仕事は当初、短いメッセージやスパムメールにラベル付けをするタスクでしたが、入社して6カ月が経過すると、児童性的虐待に関連するコンテンツにフラグを立てるタスクに切り替わったとのこと。

シン氏は、「こんなことが仕事の一部になるとは想像もしていませんでした」とThe Guardianに語っています。コンテンツがあまりに生々しく容赦がないものだったため、シン氏は上司に懸念を訴えたものの、上司は「これは神の仕事です。あなたは子どもたちの安全を守っているのですから」と説得してきたそうです。その後、シン氏の業務はポルノコンテンツの分類へと変わり、毎日何時間もポルノコンテンツを見ることとなりました。シン氏はすでに仕事を辞めていますが、1年以上が経過してもセックスのことを考えると吐き気や解離感に襲われることがあると話しました。


バダリヤ氏によると、求人広告には「過激なコンテンツにラベル付けする仕事」といったことは記されておらず、契約書に署名して研修が始まってからようやく自分の仕事内容を知る人もいるとのこと。

The Guardianはインドのデータアノテーションおよびコンテンツモデレーション企業8社にインタビューしましたが、従業員に心理的サポートを提供していると答えたのはわずか2社でした。残りの企業はThe Guardianに対し、業務内容はメンタルヘルスケアを必要とするほど過酷ではないと主張しました。

インドの労働法では精神的損害が正式に認められていないため、労働者は有効な保護を受けられないままになっています。また、コンテンツモデレーターやデータワーカーは厳格な秘密保持契約(NDA)に縛られており、家族や友人であっても仕事について話すことが禁じられています。そのため、業務内容を他人に話せず孤立しやすくなり、さらに心理的負担が大きくなる可能性があるとThe Guardianは述べました。

この記事のタイトルとURLをコピーする

・関連記事
「ChatGPTを改善するためにOpenAIが時給300円以下でケニア人を雇った」と問題視する報道 - GIGAZINE

AIを訓練するためAmazonのクラウドソーシング経由で50万人が働いている - GIGAZINE

GoogleのAI軍事活用計画に大量のクラウドワーカーがそれと知らずに協力させられていた - GIGAZINE

インターネット上のコンテンツを監視・削除するモデレーターの実態に迫る「The Moderators」 - GIGAZINE

インターネット上のコンテンツを監視・削除するモデレーターは「最悪の仕事」 - GIGAZINE

YouTubeがモデレーターに政治・社会・文化的な問題を含む潜在的な危害よりも「表現の自由」を優先するように指示 - GIGAZINE

殺人や暴力映像を監視・削除するFacebookのモデレーターの間にセックス・大麻・差別ジョークが広まる事態に - GIGAZINE

手取り時給わずか170円のモデレーターが劣悪な労働環境でアフリカのFacebookコンテンツをチェックしている - GIGAZINE

Facebookのモデレーターが「利益のために命が危険にさらされている」と主張、割増賃金や権利の拡大を求める - GIGAZINE

in AI, Posted by log1h_ik

You can read the machine translated English article Indian female workers forced to watch la….