ソフトウェア

生成AIアプリで男子学生が女子の「ディープヌード」を作成する問題が深刻化している


2023年に、アメリカ・ニュージャージー州ウェストフィールド高等学校の男子生徒らが、AIを使用して作成した女子生徒のヌード画像を共有する事件が発生しました。この事件の続報と、他の地域でも次々と発生している類似の問題を、The New York Timesがまとめています。

Teen Girls Confront an Epidemic of Deepfake Nudes in Schools - The New York Times
https://www.nytimes.com/2024/04/08/technology/deepfake-ai-nudes-westfield-high-school.html

ウェストフィールド高校に通う15歳のフランチェスカさんは、当時14歳だった2023年10月に、同じ学校に通う男子生徒がAIを使用してフランチェスカさんらの性的な画像を生成し、生徒同士で共有するという事件の被害者になりました。しかし、新しい技術に法律が追いついていないこともあり、救済の道は険しいことが報じられています。

AIで顔と裸を合成する「ディープフェイクポルノ」の被害に遭った女子高生たちにほとんど救済の道がないことが問題に - GIGAZINE


フランチェスカさんの家族は、事件発生から半年が経過しつつある記事作成時点でも、学校側は事件を公に取り上げたり、AIの使用を阻止するために学校のポリシーを更新したりしていないと非難しています。

母親のドロタ・マニ氏は学区の理事会の席で、「ウェストフィールド高校の管理者と学区は、まるでこの事件をうやむやにするための名人芸を披露しているかのようです」と、理事たちに詰め寄りました。


一方の学校側は、事件が発覚した直後に調査を開始し、警察に通報して生徒らにグループカウンセリングを受けさせたとしています。ウェストフィールド学区のレイモンド・ゴンザレス教育長は声明の中で、「すべての学区は、人工知能やその他のテクノロジーが生徒に与える影響や、その課題に取り組んでいます」と述べました。

マニ氏によると、ウェストフィールド高校の事件は2023年の夏に、ある男性生徒がInstagramのプライベートアカウントを持つ15歳の同級生の女子生徒とフレンドになりたいと頼んだのが発端だとのこと。女子生徒がそのリクエストを承認すると、男子生徒はその女子生徒を含む数人の女子生徒の写真をソーシャルメディアから入手し、AIアプリを使って本人の顔がわかる性的に露骨な画像を作成してSnapchatで同級生と共有したと、裁判資料には書かれています。

The New York Timesの取材を受けたフランチェスカさんと母親のドロタ・マニ氏。


フランチェスカさんによると、学校は10月下旬に調査を開始したとのこと。学校の管理者らは、数人の男子生徒を静かに呼び出して事情聴取する一方、フランチェスカさんを含む被害者の女子生徒を校内アナウンスで呼び出しました。

そして、その週にウェストフィールド高校のメアリー・アスフェンディス校長は保護者に「誤情報が広まる結果となった事態」についてのメールを送信しました。そのメールの中で校長は、ディープフェイクを「非常に深刻な事件」と表現しています。一方、画像が共有されているとの懸念が生徒の間に残っているにもかかわらず、学校側は「作成された画像はすべて削除され、もう出回っていない」との見方を示したとのことです。

その後、学区側は画像を作ったとして告発された男子生徒を1~2日の停学処分にしたと、マニ氏に伝えました。フランチェスカさんは、「この事件について私たちは学校のポリシーを更新し始めなければなりません。もし学校にAIを規定するポリシーがあれば、私のような生徒は守られていたはずです」と話しています。


ディープフェイクやディープヌードの問題は、嫌がらせやいじめを通じて被害者の身体的安全や精神的健康、評判を害し、進学や就職にも悪影響をもたらすおそれがあると専門家は警鐘を鳴らします。2024年3月、FBIは「生成AIやそれに準じたオンラインツールによって作成された児童性的虐待素材は違法です」とする声明を発表しました。

しかし、生徒によるAIアプリの悪用は学校にとって新しい問題であり、教育現場は対応に苦慮しています。

そのことを示す象徴的な事件が、ワシントン州イサクアのイサクア高校で2023年11月に発生した、ディープヌードにまつわる事件です。この事件で、被害者となった女子生徒の保護者の通報で捜査をしていた警察が、副校長に「なぜ学校が警察に通報しなかったのですか?」と尋ねたところ、副校長は「何を通報するんですか?」と逆に質問したことが、警察の調書に記されています。

問題を認識していない学校側に、警察が「学校は児童性的虐待の可能性を含む性的虐待を通報しなければならないことが法律で定められています」と伝えて初めて、学校は児童保護サービスに事件を報告しました。

スタンフォード大学インターネット観測所の研究者で、デジタル生成された児童ポルノの法的問題に詳しいリアナ・プフェファーコルン氏は「この現象は非常に突然出現したので、多くの学区では何の準備もできておらず、どうすればいいのかわからなくなっていても不思議ではありません」とコメントしました。


問題は高校に限らず、カリフォルニア州ビバリーヒルズのビバリービスタ中学校では、5人の男子生徒がAI生成した女子クラスメートの露骨な画像を共有していた問題が2024年2月に発覚しました。学区が作成した文書によると、その2週間後に教育委員会は5人の生徒の退学処分を承認したとのこと。州法により、退学処分を受けた生徒が事件を起こした生徒なのか確認することは禁止されていますが、事件を起こした男子生徒の人数と退学処分を受けた生徒の人数は一致しています。

また、事件後に学校が保護者に向けて発したメッセージには、「AIが生成したこの種の画像を作成、流布、または所持していることが判明した生徒は、退学勧告を含む懲戒処分を受けることになります」と書かれていました。

ビバリーヒルズ統一学区のマイケル・ブレギー教育長は、「露骨な画像の作成は少女とその家族に対する、憂慮すべき暴力です」と語り、同級生の性的な画像の作成と共有を許さないという全国的な前例を作りたかったとの意図を明かしました。

この記事のタイトルとURLをコピーする

・関連記事
AIが生成した「クラスメイトの女子高生の偽ヌード写真」を男子高生がグループチャットで共有したとして警察が捜査を開始 - GIGAZINE

AIで顔と裸を合成する「ディープフェイクポルノ」の被害に遭った女子高生たちにほとんど救済の道がないことが問題に - GIGAZINE

13歳と14歳の中学生が「同級生のディープフェイクヌード画像を生成・共有した」として起訴される - GIGAZINE

少女の性的被害が相次ぐ写真から衣服を剥ぎ取るAIポルノアプリ「ClothOff」の背後にいる人物とは? - GIGAZINE

女性の写真を1クリックで裸にしてしまう「DeepNude」が登場 - GIGAZINE

実在する女性の写真からAIで勝手にヌード画像を生成するサービスが34も登場し利用者が2400万人もいるとレポートされる - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.