InstagramやFacebookの運営元Metaの監督委員会が「イスラエル・ハマスの動画を削除すべきではなかった」と発表
MetaがFacebookに投稿されたイスラエル・ハマス戦争に関する動画を削除した件について、Metaのプラットフォーム上で削除されるコンテンツについて監視を行う監督委員会が、「削除すべきではなかった」と削除決定は間違った判断であったと認めました。
Hostages Kidnapped from Israel
https://transparency.fb.com/ja-jp/oversight/oversight-board-cases/Hostages-Kidnapped-from-Israel/
Oversight Board Issues First Expedited Decisions About Israel-Hamas Conflict | Oversight Board
https://oversightboard.com/news/1109713833718200-oversight-board-issues-first-expedited-decisions-about-israel-hamas-conflict/
監督委員会 | 独立した判断。透明性。妥当性。
https://www.oversightboard.com/decision/FB-M8D2SOGS
Meta Oversight Board says Israel-Hamas videos should not have been removed | Reuters
https://www.reuters.com/technology/meta-oversight-board-says-israel-hamas-videos-should-not-have-been-removed-2023-12-19/
Meta Watchdog Reverses Facebook Decision To Remove Graphic Hamas Attack Video - The Messenger
https://themessenger.com/tech/meta-watchdog-reverses-facebook-decision-to-remove-graphic-hamas-attack-video
Meta criticized over removal of videos showing Israel-Hamas war - The Verge
https://www.theverge.com/2023/12/19/24007655/meta-oversight-board-removed-videos-israel-hamas-conflict
MetaはFacebookやInstagramなどのプラットフォーム上での表現の自由を尊重するため、Metaとは独立した裁定機関として監督委員会を設置し、プラットフォーム上で削除するコンテンツと許容するコンテンツを選定しています。
その監督委員会が、現地時間の2023年12月7日に至急審査の対象となる案件を選定しました。至急審査の対象となったのは、Facebook上から削除された「ハマスに拉致された女性が命乞いする様子を映した動画」と、Instagram上から削除された「ガザ市のアル・シファ病院への空爆攻撃を撮影した動画」の削除の可否についてです。これらの動画には2023年10月7日に実施された「イスラエルへの攻撃」を非難するキャプションがついており、「イスラエルが味わった恐怖をより深く理解するために動画を視聴すること」や「誰もがわかるように世界に向けて共有すること」などが求められています。
Metaは暴力と扇動に関するルールと、危険な団体および人物に関するポリシーに違反しているとして、当該動画を削除しました。暴力と扇動に関するルールでは、目的が人質をめぐる状況に対する非難や意識向上である場合でも、人質の身元を明確に特定できるコンテンツであれば、削除対象とすることが可能です。危険な団体および人物に関するポリシーでは、明らかな被害者に対する指定されたテロ攻撃の瞬間を描いた第三者による画像が明確に禁止されています。
しかし、監督委員会は至急審査で当該動画の削除が不当なものかどうかを審査。そして現地時間の2023年12月19日、監督委員会は「Metaのコミュニティ規定を再考したところ、コンテンツは非難や意識向上の文脈で共有されただけのものであると判断されました」と発表し、Metaにより削除された動画が「許可されるべきコンテンツである」としました。これにより、削除された動画は警告画面付きで復元されることとなります。
Today, the Oversight Board published its first expedited decisions in two cases about the Israel-Hamas conflict.
— Oversight Board (@OversightBoard) December 19, 2023
In each case, the Board overturned Meta’s original decision to remove the content but approved its subsequent decision to restore the post with a warning screen. https://t.co/Hx2kiJ6bBg
監督委員会は動画を削除対象から外した理由を、「当該動画はイスラエル人が戦争で苦しんでいることを理解する上で貴重だったため」と説明しています。
Metaは監督委員会の決定について、「この件に関する監督委員会の決定を歓迎します。表現と安全性はどちらも、我々のサービスを利用する人々にとって重要です。監督委員会はこのコンテンツを削除するというMetaの当初の決定を覆しましたが、警告画面を表示してコンテンツを復元するという決定を承認しました。Metaは以前にこのコンテンツを復元したため、これ以上のアクションは実行されません」と述べています。
Metaは一部のカテゴリのコンテンツをおすすめ対象外としていますが、監督委員会は一部のコンテンツをおすすめ対象から除外するMetaの決断に同意していないとしています。ただし、監督委員会は決定の一環としていかなる勧告も行っていないため、この件について今後の更新はないそうです。
なお、イスラエル・ハマス戦争をめぐるコンテンツの扱いで厳しい監視を行っているのはMetaだけではありません。X(旧Twitter)の認定済みユーザー(青色チェックマーク付きのアカウント)は誤情報監視団体のNewsGuardから「誤情報のスーパースプレッダー」と非難されています。TikTokやYouTubeはプラットフォーム上の違法コンテンツや偽情報の急増を受け、EUのデジタルサービス法に基づいた調査を受けました。
・関連記事
Metaがオンラインに投稿された未成年者の性的な画像を削除するための新しいサービス「Take It Down」を発表 - GIGAZINE
テロリストや児童ポルノのコンテンツを特定するのに役立つモデレーションツール「Hasher Matcher Actioner」をMetaが無料のオープンソースとしてリリース - GIGAZINE
FacebookやInstagramの特定アカウントをモデレーション対象から除外する「XCheck」の実態を元Meta社員が語る - GIGAZINE
FacebookにはVIPユーザーが580万人存在、モデレーション監視外で独自の「XCheck」プログラム適用 - GIGAZINE
・関連コンテンツ