「Facebookのコンテンツ監視は著しく不十分」との指摘、健全なプラットフォーム構築のため何を改善するべきなのか?
by www.shopcatalog.com
Facebookは黒人男性のジョージ・フロイド氏が警察の拘束によって死亡した事件がきっかけとなった抗議活動に対し、「略奪が始まれば、銃撃が始まる」と武力行使を示唆したドナルド・トランプ大統領の投稿を削除したり警告したりしなかったとして、社内外から強く非難されています。そんな中、ビジネスと人権のためのニューヨーク大学スターンセンターの研究者らが、「Facebookのコンテンツ監視についての取り組みは著しく不十分なものである」と指摘しています。
Tech - Content Moderation June 2020 — NYU Stern Center for Business and Human Rights
https://bhr.stern.nyu.edu/tech-content-moderation-june-2020
NYU study: Facebook's content moderation efforts are 'grossly inadequate' | VentureBeat
https://venturebeat.com/2020/06/07/nyu-study-facebooks-content-moderation-efforts-are-grossly-inadequate/
トランプ大統領がSNS上で行った武力行使を示唆する投稿について、Twitterは「暴力を賛美する」内容だと判断して警告を表示した一方で、Facebookは何のラベル付けも行いませんでした。この対応にはFacebookの従業員からも非難の声が上がっており、マーク・ザッカーバーグCEOが従業員と大規模なオンライン会議を実施して、「コンテンツ検閲に関する是非」について議論する事態となりました。
FacebookのザッカーバーグCEOが従業員との大規模会議を実施、プラットフォームの規制やポリシーについて語る - GIGAZINE
by Billionaires Success
一連の問題に関連して、ビジネスと人権のためのニューヨーク大学スターンセンターの研究チームは、Facebookのコンテンツ管理に関する調査レポートを発表しました。レポートでは、多くの主要なSNSプラットフォームがコンテンツ監視の問題に苦しんでいることが指摘されています。
たとえばYouTubeやGoogleはそれぞれ1万人、Twitterは1500人のモデレーターがコンテンツの監視を行っている一方で、Facebookは約1万5000人ものモデレーターによってコンテンツが監視されているとのこと。Facebookは比較的多い数のモデレーターを抱えている上に、60もの報道組織と連携して情報のファクトチェックを実施していますが、「これらの数は相当多いように思われるかもしれませんが、サイト上で広まる情報の量を考えると著しく不十分です」とレポートは指摘。
レポートはFacebookのコンテンツ監視がうまくいっていない理由について、Facebookが絶え間ない成長に焦点を当てていることが背景にあると研究チームは考えています。ザッカーバーグCEOの初期モットーは「企業は国を超える」であり、Facebookは企業規模の拡大を強く意識しているとのこと。ところが、レポートの筆頭著者であるPaul Barrett氏は、拡大・成長戦略とコンテンツの監視を並行して行う戦略がFacebookに欠けていると述べています。
by www.shopcatalog.com
Facebookのコンテンツ監視は、まず最初にユーザーおよび人工知能システムによるフラグが立てられ、そのフラグが立ったコンテンツについてモデレーターがチェックする仕組みです。フラグが立てられるコンテンツの数は1日当たり300万件にも及びますが、モデレーターのエラー率は10%とも報告されており、Facebookは1日当たり30万件ものコンテンツについて判断を誤っているとのこと。
もしFacebook上のコンテンツが正常に監視されなければ、プラットフォームにはスパムやいじめ、人種差別や暴力に関するコンテンツ、児童の性的虐待といったコンテンツがあふれてしまい、多くの一般ユーザーは流出してしまいます。そのため、モデレーターによるコンテンツの監視はFacebookの使いやすさを維持するための基本となりますが、Facebookのモデレーターは基本的に外注だという点が問題になっているとBarrett氏は主張しています。
基本的にコンテンツのモデレーターは本社で働く正社員たちと比較して安い給料で勤務し、労働環境も劣悪であることが指摘されています。また、人件費の安い開発途上国でも多くのモデレーターたちが雇用されていますが、モデレーターたちが肉体的に遠く離れた場所から別の国のコンテンツを監視することで、本当は危険な内容を含むコンテンツが見過ごされてしまう危険性もあるとのこと。
こうした問題を解決するため、Barrett氏は以下の8つの改善策を提案しています。
1:コンテンツ管理を社内で行い、モデレーターに十分な給与と福利厚生を与える。
2:コンテンツモデレーターの数を2倍に増やす。
3:コンテンツ管理を監督するため、上位の幹部を役職に就ける。
4:アジアやアフリカの「危険なコンテンツが投稿されるリスクが高い国」に投資し、現地語で作業するチームを作る。
5:モデレーターの健康問題を解決するオンライン医療ケアを提供する。
6:コンテンツ管理の健康リスクに関する学術研究に協力する。
7:有害コンテンツの拡散に関する政府の規制に協力する。
8:ファクトチェックの規模を拡大してフェイクニュースの拡散を防止する。
こうした対策はコストがかかるものですが、Facebookは新型コロナウイルスに関連してフェイクニュースの拡散防止に乗り出すなど、危険なコンテンツと戦う姿勢を見せているため、Barrett氏はFacebookがコンテンツの監視状況を改善する希望があると考えています。モデレーターの外注を廃止する方針は野心的なものであるものの、「私はFacebookがこの方向に動く準備ができている可能性もあると考えています」と、Barrett氏は述べました。
by JD Lasica
なお、アメリカ全土に広がっている黒人差別に抗議する活動について、Facebookのモデレーターたち数名は共同で声明を発表。モデレーターたちはFacebook上から暴力や憎しみをなくすために努力しており、アメリカの黒人コミュニティと連帯すると主張しています。また、トランプ大統領の発言を検閲しなかったザッカーバーグCEOに対して抗議する従業員に賛同し、Facebookは黒人従業員やユーザーの声に耳を傾けるべきだと訴えました。
This is a message of solidarity from a group of current and former content moderators at Facebook.
https://medium.com/@fbcontentmods/this-is-a-message-of-solidarity-from-a-group-of-current-and-former-content-moderators-at-facebook-6af1b3b2a020
Facebook moderators join criticism of Zuckerberg over Trump stance | Technology | The Guardian
https://www.theguardian.com/technology/2020/jun/08/facebook-moderators-criticism-mark-zuckerberg-donald-trump
・関連記事
FacebookがSNS検閲問題を巡り暴力コンテンツのポリシーの見直しを実施予定 - GIGAZINE
SNSの検閲問題を巡ったFacebookのマーク・ザッカーバーグCEOと従業員の対話で着目するべき「9個のポイント」とは? - GIGAZINE
FacebookのザッカーバーグCEOが従業員との大規模会議を実施、プラットフォームの規制やポリシーについて語る - GIGAZINE
「トランプ大統領のソーシャルメディア検閲問題」に関してFacebook社員がザッカーバーグCEOの対応を公然と非難 - GIGAZINE
ザッカーバーグCEOから支援を受けた専門家143人がFacebookに「トランプ大統領の投稿を規制する」ことを申し入れる - GIGAZINE
Facebookは従業員の多くをリモートワークに移行する大規模な計画を立てている - GIGAZINE
殺人や暴力映像を監視・削除するFacebookのモデレーターの間にセックス・大麻・差別ジョークが広まる事態に - GIGAZINE
Facebookが55億円超の和解金を有害コンテンツの監視でPTSDを患った下請け従業員らに支払うことで合意 - GIGAZINE
Facebookの下請け会社では劣悪な職場環境により従業員が死亡したと元従業員が告白 - GIGAZINE
・関連コンテンツ