ネットサービス

TikTokのモデレーターが児童の性的虐待動画でトレーニングを受けていたと証言


TikTokのコンテンツをチェックする第三者企業・Teleperformanceで働いていた元従業員が職務として児童ポルノを見せられていたと証言し、児童ポルノを記録した資料に数百人がアクセスできる状態だったと報告しました。このことは資料の公開範囲を最小限にとどめる法律に違反しているのではと、専門家が首を傾げています。

TikTok moderators say they were trained with child sexual abuse content - The Verge
https://www.theverge.com/2022/8/5/23294017/tiktok-teleperformance-employees-shown-csam-moderation-report

Teleperformanceの元従業員は、TikTokのモデレーション基準を記した「Daily Required Reading(DRR:毎日必読)」と呼ばれるスプレッドシートを確認するよう求められたと主張しています。このスプレッドシートには児童の裸や虐待を受けた子どもの様子など、TikTokのガイドラインに違反する画像が数百点記録されていたとのこと。さらにTikTokとTeleperformanceの従業員数百人がオフィスの内外からこのコンテンツにアクセスでき、情報漏えいの可能性もあったと指摘されています。


このような児童性的虐待のコンテンツ(CSAM)は違法であり、発見された場合の取り扱いには厳しい規則が設けられています。もし誰かがCSAMを発見した場合は直ちにそれを削除し、子どもを支援する非営利団体の全米行方不明・被搾取児童センター(NCMEC)に報告する必要があります。

NCMECに報告した企業は捜査当局への情報提供のために90日間その資料を保持することが法律で認められていますが、連邦法は企業に対し、コンテンツにアクセスできる従業員の数を最小限にして資料を安全な場所に保管し、法執行機関の要請があればコンテンツを永久に破棄することを求めています。

しかし、今回の疑惑は限度をはるかに超えており、ある従業員はこの行為が「CSAMを広める犯罪行為にあたるのでは」とFBIに問い合わせたとのこと。


IT系ニュースサイト・The Vergeによると、TikTokの広報担当者であるJamie Favazza氏はForbesの取材に対し、従業員に性的搾取コンテンツを見せたことを否定しているとのことですが、TikTokのすべての提携企業においても同様かどうかは確認していないとも話しました。

Favazza氏は「このような性質のコンテンツは忌むべきものであり、我々のプラットフォームの中にも外にも有るべきではありません。我々は業界のベストプラクティスに沿って、コンテンツのモデレーターへの露出を最小限に抑えることを目標としています。TikTokのトレーニング教材には厳格なアクセス制限があり、CSAMの視覚的な例は含まれていませんし、当社の児童安全専門チームが調査してNCMECに報告しています」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
手取り時給わずか170円のモデレーターが劣悪な労働環境でアフリカのFacebookコンテンツをチェックしている - GIGAZINE

コメントを削除するモデレーターが「何を削除すべきか?」に関する研究結果が公開 - GIGAZINE

インターネット上のコンテンツを監視・削除するモデレーターは「最悪の仕事」 - GIGAZINE

虐殺・銃乱射・レイプなどを1日10時間以上見せられメンタルケアがないとTikTokのモデレーターが会社を提訴 - GIGAZINE

Facebookのモデレーターが「利益のために命が危険にさらされている」と主張、割増賃金や権利の拡大を求める - GIGAZINE

in ネットサービス, Posted by log1p_kr

You can read the machine translated English article here.