モバイル

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も


現地時間の2021年8月5日、Appleは「子どものための拡張された保護」と題するページを公開し、「Child Sexual Abuse Material(CSAM:児童の性的搾取に関連するデータ)」の拡散を制限するために、新たな安全機能を導入すると発表しました。Appleは具体的に「メッセージアプリ上でやり取りされるCSAMと思しきコンテンツについては警告を表示する」「iCloud写真に保存されているデータを検査し、CSAMが検出できるようにする」「Siriと検索機能からCSAMに関する報告を可能にする」という3つを挙げているのですが、ユーザーからは「iCloud写真の中身をチェックするのはプライバシーの侵害だ」と批判が噴出しています。

Child Safety - Apple
https://www.apple.com/child-safety/

Apple plans to scan US iPhones for child abuse imagery | Ars Technica
https://arstechnica.com/information-technology/2021/08/apple-plans-to-scan-us-iphones-for-child-abuse-imagery/

Apple announces new protections for child safety: iMessage features, iCloud Photo scanning, more - 9to5Mac
https://9to5mac.com/2021/08/05/apple-announces-new-protections-for-child-safety-imessage-safety-icloud-photo-scanning-more/

現地時間の2021年8月4日、AppleがCSAMに関する取り組みを発表する前のタイミングでジョンズホプキンス大学の暗号研究者のマシュー・グリーン氏が、「Appleが明日、CSAMをスキャンするためのクライアント側のツールをリリースするという情報を複数の人から別々に入手しました。これは本当に悪い考えです」とツイートしました。


その後、Appleは正式にCSAMに関する取り組みを発表しました。Appleは「メッセージアプリ」「iCloud写真」「Siriと検索機能」という3つの分野からCSAMの拡散を制限していくとしています。

◆メッセージアプリ
メッセージアプリ上では性的に露骨な写真を送受信する場合、子どもとその親に警告するための新しいツールが導入されます。CSAMを受信すると、写真にはぼかしがかけられ、子どもには警告が表示され、さらに問題を報告するために役立つような情報が表示されます。さらに、子どもがCSAMをチェックした場合や自分からCSAMを送信しようとした場合は、その旨を両親にメッセージで通知することも可能です。

なお、メッセージアプリ上でやり取りされるコンテンツがCSAMか否かを判断するのは人間のモデレーターではなく、端末上の機械学習を用いたスキャンシステム。つまり、Appleがメッセージ内容に直接アクセスすることがないようにシステムは設計されているため、ユーザーのプライバシーは保たれるわけです。メッセージアプリ上でのスキャンはiOS 15/iPadOS 15/macOSMontereyから利用可能となり、iCloudでファミリー共有を設定しているユーザーに対して提供されます。


◆iCloud写真
さらに、CSAMがインターネット上で拡散されることを防ぐために、Appleは「iOSおよびiPadOSの新技術を用いることで、iCloud写真に保存されている既知のCSAMを検出できるようにする」と発表しています。AppleはCSAMを検出した場合、全米行方不明・搾取児童センター(NCMEC)に報告できるようになり、報告を受けたNCMECはアメリカの法執行機関と協力して捜査に当たることとなるとのこと。

iCloud写真のスキャン機能について、Appleは「ユーザーのプライバシーを念頭に置いて設計している」と言及。システムはクラウド上の画像をスキャンする代わりにNCMECやその他の児童安全組織が提供する既知のCSAMのハッシュデータがまとめられたデータベースを使用して、問題のあるコンテンツがないかをチェックします。また、スキャンはクラウド上ではなくユーザーの各端末上で実行されます。照合プロセスには「Private Set Intersection(PSI)」と呼ばれる暗号化技術が利用されており、画像そのものをチェックすることなく問題のあるものかどうかを確認可能です。また、端末上での検査結果は、暗号化された状態で安全証明書としてiCloud上にアップロードされます。

さらに、「threshold secret sharing(しきい値秘密分散)」と呼ばれる別のテクノロジーを使用することで、iCloud写真を使用するアカウントで既知のCSAMコンテンツが一定数以上検出されると、安全証明書をApple側がチェック可能になるよう設計されています。なお、Appleは「非常に高いレベルのCSAMスキャンツールを用いているため、システムが『CSAMコンテンツを保有している』と間違ってフラグを立てる可能性は、1兆分の1未満であることを保証します」と記しており、システムの精度の高さをアピールしました。

なお、しきい値を超えた場合、Appleは安全証明書の内容をチェックし、安全証明書の内容に基づき手動でiCloud上のコンテンツがCSAMコンテンツであるか否かをチェックします。その後、問題がある場合はアカウントを無効化し、NCMECにレポートを送信することとなります。なお、ユーザー側は自分のアカウントに間違ってフラグが立てられていると感じた場合は、アカウントの復元を求める申し立てを行うことが可能です。

◆Siriと検索機能
さらに、Siriと検索機能も更新され、ユーザーがCSAMに関連する検索を行った場合に、トピックへの関心が有害で問題があることをユーザーに説明し、問題の支援を得るためのリソースを提示します。Siriと検索機能のアップデートは、今秋リリース予定のiOS 15/iPadOS 15/watchOS 8/macOSMontereyから利用可能となる予定です。


Appleの発表に対して、電子フロンティア財団は「暗号化に関する『異なる考え』をするAppleの計画はあなたの私生活にバックドアを設置する」と題した投稿を行い、CSAMに関する取り組みを批判しました。具体的には、「Appleは現在すでにiCloud写真に保存されている写真を表示するためのキーを持っていますが、スキャンはしていません。しかし、CSAMのスキャン機能が導入されれば、ユーザーのプライバシーが低下することは火を見るより明らかです」「CSAMの検出を機械学習で行うことは非常に難しいことで知られており、Appleの取り組みでも間違って分類される可能性が十分にあります」「CSAMのスキャン機能が追加されたことで、AppleのメッセージアプリであるiMessageはエンドツーエンドの暗号化が行われているとは言えなくなった」などと指摘しています。

Apple's Plan to "Think Different" About Encryption Opens a Backdoor to Your Private Life | Electronic Frontier Foundation
https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life


さらに、Center for Democracy&Technologyも「メッセージアプリと写真サービスに対してAppleが施す変更は、ユーザーのセキュリティとプライバシーを脅かすものだ」と批判しています。

CDT: Apple’s Changes to Messaging and Photo Services Threaten Users’ Security and Privacy - Center for Democracy and Technology
https://cdt.org/press/cdt-apples-changes-to-messaging-and-photo-services-threaten-users-security-and-privacy/

この記事のタイトルとURLをコピーする

・関連記事
「Appleのプライバシー保護機能を一時停止する措置」をフランス当局が拒否 - GIGAZINE

Appleのプライバシー強化で開発者や広告主の収益が15~20%減ったことが判明 - GIGAZINE

Appleは「セキュリティとプライバシー」を理由にして競争を妨害すべきではないとECが警告 - GIGAZINE

Appleのプライバシー機能をバイパスしようとした中国企業の顛末とは? - GIGAZINE

Appleがプライバシー強化機能を導入してAndroidが恩恵を受ける - GIGAZINE

in モバイル,   ソフトウェア,   セキュリティ, Posted by logu_ii

You can read the machine translated English article here.