ネットサービス

TikTokのアルゴリズムは自殺に至る自傷行為や摂食障害に関する動画を10代のユーザーにオススメしてしまうことが調査で発覚、39秒に1回の頻度で有害コンテンツをユーザーにプッシュしている


ショート動画共有SNSのTikTokのアルゴリズムは10代のユーザーに自傷行為や摂食障害に関するコンテンツを短い頻度で何度も表示することがあると最新の調査で報告され、ソーシャルメディアによる若者のメンタルヘルスへの影響が懸念されています。

Deadly by Design
(PDFファイル)https://counterhate.com/wp-content/uploads/2022/12/CCDH-Deadly-by-Design_120922.pdf

Report: TikTok boosts posts about eating disorders, suicide | AP News
https://apnews.com/article/technology-health-eating-disorders-center-government-and-politics-0c8ae73f44926fa3daf66bd7caf3ad43

TikTok self-harm study results ‘every parent’s nightmare’ | TikTok | The Guardian
https://www.theguardian.com/technology/2022/dec/15/tiktok-self-harm-study-results-every-parents-nightmare

若者世代から強い支持を得ているTikTokについて調査を行ったのは、ヘイトスピーチに関する調査を行う非営利団体のデジタルヘイト対策センター(CCDH)。CCDHはアメリカ・イギリス・カナダ・オーストラリアの4カ国で10代の少年少女のフリをしてTikTokアカウントを作成し、自傷行為や摂食障害に関する動画に「いいね」を行うことでTikTokのアルゴリズムがどのように反応するのかを調査しました。

調査の結果、これらのアカウントでは、39秒ごとにモデルの写真や理想的な体形の動画が表示され、2.6分ごとにカミソリの刃や自殺の議論などの自傷行為に関する動画、8分ごとに摂食障害に関する動画が表示されたと報告しています。

Our new research found TikTok recommends:

❌Videos about mental health & body image every 39s
❌Suicide content within 2.6 mins
❌Eating disorder content within 8 mins

An average US teen spends ~80 mins a day on TikTok. TikTok boosts content that impacts teens’ mental health. pic.twitter.com/sEBXZpsTrY

— Center for Countering Digital Hate (@CCDHate)


さらに、「loseweight(減量)」という用語を含むアカウントを作成した場合、状況はより悪化し、それ以外のアカウントよりも摂食障害に関連する動画が表示される頻度が3倍も増えることが明らかになりました。また、自傷行為や自殺に関連する動画は12倍多く表示されたそうです。

TikTok’s content was even worse when we set up ‘vulnerable’ teen accounts, whose usernames included the term ‘loseweight’.

TikTok’s algorithm served ‘vulnerable’ accounts 3 times as many harmful videos and 12 times as many self-harm & suicide videos. pic.twitter.com/5qJIC0ztaw

— Center for Countering Digital Hate (@CCDHate)


CCDHのCEOであるイムラン・アーメド氏は、「若者のフィードには有害で悲惨なコンテンツが多く、周囲に対する理解やメンタルヘルスに重大な影響を与える可能性があります」と警告しています。


一方でTikTokの広報担当者は、CCDHの調査は実際のユーザーと同様の視聴習慣や経験を反映した調査を行っておらず、結果がゆがんでしまっていると反論しているそうです。また、TikTokのコミュニティガイドラインでは、自殺や自傷行為につながる可能性のあるコンテンツや、不健康な食習慣を助長するコンテンツが禁止されています。

しかし、DDHCの研究者は摂食障害に関するコンテンツがTikTok上で何十億回も視聴されていることを発見しており、若いTikTokユーザーはモデレーションを回避するために「隠語」を使用しているとのこと。

CCDHは「TikTokのアルゴリズムは設計上致命的です」として、「これ以上若者のフィードに有害なコンテンツを広めることを食い止める必要があります」と述べています。

TikTok’s algorithm is deadly by design.

TikTok must stop enabling the spread of harmful content into young people’s feeds and #FixTikTokhttps://t.co/s7XRkSR4yp

— Center for Countering Digital Hate (@CCDHate)

この記事のタイトルとURLをコピーする

・関連記事
TikTokが「子どもを薬物とアダルトコンテンツにさらした」と提訴される、中国政府へのデータ漏えい懸念で使用禁止の動きも - GIGAZINE

TikTokの「失神チャレンジ」流行で12歳以下の子どもが1年半に15人以上も死亡、なぜ13歳未満のユーザーを排除できないのか? - GIGAZINE

10代の若者はYouTubeよりもTikTokを見る時間の方が長くなっているという調査結果 - GIGAZINE

TikTokがライブ配信の年齢要件を18歳以上に引き上げる、大人の視聴者限定のライブ配信も可能に - GIGAZINE

TikTokのモデレーターが児童の性的虐待動画でトレーニングを受けていたと証言 - GIGAZINE

in ネットサービス, Posted by log1r_ut

You can read the machine translated English article here.