ネットサービス

YouTubeの「おすすめ動画」アルゴリズムは人々の思想を偏らせるのか?


YouTubeは、ユーザーが動画を視聴するとアルゴリズムで「おすすめ動画」を割り出して表示します。この「おすすめ動画」を見続けることで思想が偏り、人々を社会構造の抜本的改革を求める急進主義に走らせるのではないかという懸念に対する1つの見解が、研究により示されました。

Examining the consumption of radical content on YouTube | PNAS
https://doi.org/10.1073/pnas.2101967118

If YouTube’s algorithms radicalize people, it’s hard to tell from the data | Ars Technica
https://arstechnica.com/science/2021/08/if-youtubes-algorithms-radicalize-people-its-hard-to-tell-from-the-data/

ペンシルバニア大学のHoma Hosseinmard氏らは、調査会社のニールセンから、2016年~2019年に視聴された約2100万本の動画、約900万件のチャンネル、約30万人のユーザーの匿名化されたデータを取得しました。これらのチャンネルのほとんどは政治的なものではなかったため、Hosseinmard氏らは2020年~2021年に行われた、YouTubeのさまざまなチャンネルを「オルタナ右翼」「社会主義」などとラベル付けした4つの研究を引用。これらのラベル付けされたチャンネルと同じものをニールセンのデータから見つけ、独自に作成した「極左」「左派」「中道」「右派」「極右」「anti-woke」というラベルをもって、再度ラベル付けを行いました。

「anti-woke」の「woke」とは、もともと「人種的偏見や差別意識に言及する」という意味で使われ出した言葉で、昨今ではブラック・ライヴズ・マターの問題に言及する人々の間で使われ出したほか、言葉の意味が広がり、女性問題や社会的不平等などの問題にも使われるようになっています。そして、「anti-woke(アンチwoke)」とは、「woke」の台頭を「やりすぎ」と反発する人々のことを指します。今回の研究では「進歩的な正義運動への反対」に焦点を当てて「anti-woke」のラベル付けが行われたとのことですが、これらのチャンネルの動画は必ずしも明白に政治的であるとは限らなかったとのことです。

最終的にHosseinmard氏らがラベル付けを行ったチャンネルの総数は997件。これらのチャンネルの動画は全体の視聴時間の3.3%を占めていました。


Hosseinmard氏らによると、これらのチャンネルが投稿する動画を見た人は、同じタイプの動画に固執する傾向があったとのこと。例えば2016年に「左派」「極左」のコンテンツを視聴したユーザーは、2019年の調査終了時にも引き続き「左派」「極左」のコンテンツを視聴していた可能性があるとのことです。

そこで、Hosseinmard氏らは各ラベルごとの視聴者数と、視聴したユーザーがどのような動画を見たのか、どの程度視聴に時間を費やしたのかを調査しました。6つのラベルのうちもっとも視聴者数が多いのは「左派」で、単独でほぼ半数を占めました。次に多かったのは「中道」でした。なお、元データの調査期間である2016年~2019年の間に「左派」「中道」「右派」「anti-woke」はは視聴者数・視聴時間ともに増加していました。これは、放送メディアの代わりにYouTubeを使用するユーザーが増加しているということを示唆しているとHosseinmard氏らは述べています。


視聴時間も考慮すると、極右の視聴者数は4年間の調査でほぼ変わらなかったにもかかわらず、それぞれの視聴時間は増加。これに対し右派の視聴者数は増加したにもかかわらず、視聴時間はそれほど変わりませんでした。また、anti-wokeはどのラベルよりも高い成長率を見せ、調査の終わりまでに左派未満、中道以上の視聴時間に達したとのことです。

Hosseinmard氏らは「YouTubeのアルゴリズムが人々を極端な思想に導くとすれば、調査期間の後半になるにつれて視聴者数が増えるはずだが、実際には増えなかった。このことから、YouTubeの利用が人々を極端な思想に導くような傾向はないという可能性が示された」と記しています。

また、Hosseinmard氏らは「極右のコンテンツには少しだけユーザーを引きつける性質があるため、視聴者がより多くの時間を費やしている」と指摘。さらに「anti-wokeはさらにユーザーを引きつける性質があり、このために視聴者数が増加したと考えられる」と述べました。


Hosseinmard氏らはYouTubeがユーザーを急進主義に走らせている証拠を発見しませんでしたが、海外メディアのArs Technicaはこの研究に関し、「研究はデスクトップブラウザでの視聴のみに絞っており、モバイル端末での視聴を考慮していない。また、YouTubeのアルゴリズムが実際にどんな動画をおすすめしたのかを特定できていないため、おすすめ動画の観点には推測が含まれている」と言及しました。

この記事のタイトルとURLをコピーする

・関連記事
過激な思想の持ち主は「複雑な認知タスクの処理が苦手」だと判明 - GIGAZINE

YouTubeがおすすめ動画としてポリシーに違反するコンテンツを表示していることが判明 - GIGAZINE

ネットサービスの「オススメ機能」のアルゴリズムが人々に大きな影響を与えているとの指摘 - GIGAZINE

「YouTubeは大きくなりすぎて不適切なコンテンツの100%排除は不可能」とGoogleのピチャイCEOが語る - GIGAZINE

白人至上主義などの過激派は「ゲーム配信」で子どもを取り込もうとしている - GIGAZINE

Facebookがユーザーに「あなたの知り合いが過激派になりつつあることを心配していませんか?」と注意を促す機能をテスト - GIGAZINE

過激派が集う海外匿名掲示板「8kun」を事実上支援しているホスティングプロバイダ「VanwaTech」創設者の考えとは? - GIGAZINE

in ネットサービス, Posted by log1p_kr

You can read the machine translated English article here.