ネットサービス

Instagramが10代の若者のDMでヌード画像を自動検出してぼかして送信者と受信者に警告画面を表示する機能をテスト予定


Metaが、未成年がSNSで性的脅迫を受ける「セクストーション」被害への対策として、ダイレクトメッセージ(DM)で送られるヌード画像を検出してぼかしを加え、さらに警告画面を表示する機能をInstagramに搭載するテストを行うと発表しました。

New Tools to Help Protect Against Sextortion and Intimate Image Abuse | Meta
https://about.fb.com/news/2024/04/new-tools-to-help-protect-against-sextortion-and-intimate-image-abuse/


セクストーションとは「性的脅迫」を意味し、加害者が被害者とSNSを通じて親密な関係を築いた上で、裸の写真や動画などのプライベートな画像を送るように要求したり、オンラインでの性的な行為を強要したりし、さらに入手した画像や動画を使って脅迫して金銭やさらなる性的な行為を要求したりする行為です。セクストーションは若者を中心に深刻な問題となっており、被害者の精神的健康に大きな影響を与え、時には被害者が自殺に追い込まれるケースもあります。

Metaが発表した新機能は、InstagramのDMで送信された画像にヌードが含まれているかどうかを機械学習アルゴリズムを用いて分析します。この機械学習アルゴリズムはユーザーのデバイス上で動作するため、エンドツーエンドの暗号化されたチャットでも機能するとのこと。

そして、送信しようとする画像にヌードが含まれているとアルゴリズムが判断した場合、画像は自動的にぼかされ、「センシティブな画像を共有する時は注意してください」という警告画面が表示されます。


ヌードを含む画像を受け取った場合も、画像に自動でぼかしが入って警告画面が表示され、画像を表示するかどうかを選択することになります。


受け取ったヌード画像を他人に転送しようとしても、警告画面が表示されます。


さらに警告画面から相手をブロックして通報することも可能。


Metaによると、18歳未満のユーザーに対してはデフォルトでこの機能をオンにすることを想定しているとのこと。また、セクストーションを示す可能性のあるさまざまなシグナルに基づいて、セクストーションを未然に察知するシステムも開発中だそうです。

Metaは、児童の安全に関するポリシーに違反したアカウントや行動を共有する「Lantern」というプログラムの創設メンバーの1社です。このLanternを通じてセクストーションに関連する情報を他の企業と共有し、他のSNSがセクストーション加害者と疑われるアカウントを特定して適切な措置することを支援すると、Metaは述べています。

この記事のタイトルとURLをコピーする

・関連記事
InstagramとFacebookがデフォルトで16歳未満のユーザーへのDM送信を不可能に、2024年1月26日より適用開始 - GIGAZINE

Metaがオンラインに投稿された未成年者の性的な画像を削除するための新しいサービス「Take It Down」を発表 - GIGAZINE

テロリストや児童ポルノのコンテンツを特定するのに役立つモデレーションツール「Hasher Matcher Actioner」をMetaが無料のオープンソースとしてリリース - GIGAZINE

TikTokやInstagramで性的画像を用いて脅迫する「セクストーション」が西アフリカの犯罪集団「Yahoo Boys」中心に行われている - GIGAZINE

性的な画像を送らせて金銭を要求する「セクストーション詐欺」を行うスパムアカウントがX(旧Twitter)上の中国人ユーザーの間で増加中との報告 - GIGAZINE

AIで顔と裸を合成する「ディープフェイクポルノ」の被害に遭った女子高生たちにほとんど救済の道がないことが問題に - GIGAZINE

in モバイル,   ソフトウェア,   ネットサービス, Posted by log1i_yk

You can read the machine translated English article here.