メモ

Appleが「iCloudで児童性虐待記録物の検出・対策を怠った」としてウエストバージニア州に訴えられる


「iCloudが児童性虐待記録物(CSAM)の保存・流通手段として使われているのを見過ごし、何も対策してこなかった」として、ウエストバージニア州がAppleを提訴しました。

West Virginia Attorney General Sues Apple for Role in Distribution of Child Sexual Abuse Material | Office of the WV Attorney General John B. McCuskey
https://ago.wv.gov/article/west-virginia-attorney-general-sues-apple-role-distribution-child-sexual-abuse-material

ウエストバージニア州司法長官のJB・マッカスキー氏は提訴にあたり「子どもの『捕食者』のプライバシーを守るなど断じて許されません。なによりウエストバージニア州の法律に違反しています。Appleはこれまで、自分たちを監督する道徳的に正しい行いを拒否してきました。このため私は、CSAMを保存・共有することで子どもたちが再び傷付くことのないよう、法律に従ってCSAMを報告するよう要求するために、訴訟を起こしました」と述べました。


連邦法は、アメリカに拠点を置く企業に対して、検出されたCSAMを全米行方不明・搾取児童センター(NCMEC)に報告することを義務付けています。2023年の報告数はMetaが3060万件以上、Googleが147万件だったのに対し、Appleはわずか267件でした。このため、マッカスキー氏は「Appleが検知技術を導入しなかったのは、消極的な見落としではなく、自らの選択です」と指摘しています。

ウエストバージニア州司法長官事務所はAppleに対して法廷損害賠償と懲罰的損害賠償、効果的なCSAM検出手段の実装を義務付ける差し止め命令、今後さらに安全な製品設計を義務付ける公平な改善策を求めています。

ちなみに、Appleは2021年に「児童の性的搾取を防ぐためにメッセージアプリやiCloudの内容をスキャンする」という施策を発表したことがあります。

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE


しかし、人権団体が「かえって子どもたちを危険にさらすことになる」と強く反対。

90の人権団体らが「iPhoneの写真やメッセージのスキャン」に抗議する公開書簡を発表、かえって子どもの権利が侵害されるとの懸念 - GIGAZINE


機能実装は延期されたのち、破棄されたと報じられています。

Appleが「iCloudフォトに性的児童虐待の画像がないかをチェックするシステム」の実装を破棄 - GIGAZINE


このあと、Appleはイギリスで持ち上がった「メッセージアプリの通信内容スキャン」などを義務付ける「オンライン安全法案」に反対の姿勢を表明しています。

Appleが「子どもを守るためにスマホのメッセージや画像をスキャンする法案」への反対を表明 - GIGAZINE


経緯を追うと「Appleは対策をしようとしていたのに外圧でできなかった」ように見えます。

なお、ウエストバージニア州司法長官事務所は、Appleが社内でiCloudのことを「児童ポルノを配信するための最大のプラットフォーム」と表現していたと述べています。

この記事のタイトルとURLをコピーする

・関連記事
Amazonから報告されるAIトレーニングデータ内の児童性的虐待コンテンツの数は「異例の多さ」で情報源が分からないとの指摘 - GIGAZINE

GoogleドライブにAIトレーニングデータをアップロードした開発者が児童性的虐待コンテンツを保存したとしてGoogleアカウントを停止される - GIGAZINE

阻止されたはずのEUのプライベートメッセージスキャン計画「チャットコントロール」が改悪され「チャットコントロール2.0」として復活 - GIGAZINE

あらゆるプライベートなチャットやファイルを政府の指示で検閲する「チャットコントロール法」が危険で無意味な理由とは? - GIGAZINE

in メモ, Posted by logc_nt

You can read the machine translated English article Apple sued in West Virginia for failing ….