YouTubeで機械学習システム導入により「暴力的過激主義」動画の75%がユーザーからの指摘以前に非公開へ
by Esther Vargas
2017年現在、YouTubeにアップロードされる映像の量は1分間に400時間分以上という膨大なもの。その中身は映画の予告編やMV、どこかのYouTuberが作った面白映像から、テロリストが作ったものまで様々。いま、このコンテンツ確認には機械学習が活用されており、従来よりも圧倒的に高速・正確になっています。
Official YouTube Blog: An update on our commitment to fight terror content online
https://youtube.googleblog.com/2017/08/an-update-on-our-commitment-to-fight.html
ネット上のコンテンツが問題のあるものかないものかを判断するのは、長らく人に頼る状況が続いていました。たとえば、Googleでは「児童ポルノやグロテスクなコンテンツがないかを確認する仕事」に従事していた人が精神的に参ったという話があります。
Googleで児童ポルノやグロテスクなコンテンツがないか監視し続けた男性 - GIGAZINE
その大きな助けとなってくれるのが、2016年ぐらいから一気に伸びてきた「人工知能(AI)」と「機械学習」です。
YouTubeでは、問題ないコンテンツに混ざってアップロードされるテロリストのコンテンツへの対応に苦慮してきましたが、機械学習システムの導入が状況を大きく変えました。
具体的には、2017年7月に「暴力的過激主義」のため削除された動画のうち75%は、ユーザーによって不適切フラグを立てられるよりも前に非公開になりました。
また、処理した動画の本数は2倍に増加しました。
こうした取り組みは今後、違法ではないもののユーザーによって不適切フラグが立てられていて、ヘイトスピーチや暴力的過激主義など潜在的にYouTubeのポリシーに反する可能性のある動画についても行われていくとのことです。
・関連記事
YouTubeが報道価値の高いムービーの真実性を検証・選別するサービス「YouTube Newswire」を開始 - GIGAZINE
「イスラム国」が用いるハリウッド流の効果的な映像編集スタイルを解説 - GIGAZINE
「より良いネット」を作るためにヘイトと嫌がらせ表現の検閲の必要性をGoogle会長エリック・シュミットが主張 - GIGAZINE
・関連コンテンツ