ネットサービス

「Stable Diffusion」のような画像生成AIに自分の顔写真が使われている可能性は決して低くないとの警告


インターネットユーザーの中には、「一度ネット上に公開したものは簡単には削除できないので、不用意に自分の顔写真などをアップロードしてはいけない」という忠告を見聞きしたことがある人も多いはず。Stable DiffusionDALL・Eやといった画像生成AIの流行により、インターネットとプライバシーの問題がさらに深刻で複雑なものになったと指摘されています。

AI Is Probably Using Your Images and It's Not Easy to Opt Out
https://www.vice.com/en/article/3ad58k/ai-is-probably-using-your-images-and-its-not-easy-to-opt-out

2022年9月に、ある画像生成AIのユーザーが、AIトレーニング用の画像データセットの中に自分の医療記録の写真が含まれていることを発見しました。その人はデータセットを作成した企業に自分の顔写真の削除を求めましたが、企業側は「データセットは画像そのものではなく画像へのリンクを集めたものに過ぎない」と取り付く島もありませんでした。この事件の詳細は、以下の記事でまとめられています。

画像生成AIユーザーがAI学習用データセットから「自分の医療記録の写真」を発見してしまう - GIGAZINE


この問題について、海外メディアのMotherboardがAIトレーニング向け画像50億枚以上を含むデータセット「LAION-5B」を手がけるLAIONに連絡を取ったところ、同社のエンジニアは「データセットの安全性についての議論が目的であり、ジャーナリストによる引用に堪えるように用意されたものではない」として、Discordから上記の問題に関するやりとりを削除してしまったとのこと。

Motherboardの取材を受けたニューハンプシャー大学法学部の助教で弁護士のTiffany Li氏は「こうした大規模なデータセットの大半は、他のデータセットから画像を収集しているため、最初に画像を収集した人、それを最初にデータセットに入れた人、それを最初に公開した人が誰かを特定するのが困難です。そうなると、法的な問題となっても誰を訴えればいいのか分かりません。これは、不正を行った者を罰することも難しいということです」と話しました。

画像生成AIには、プライバシーを侵害された人がそれを解消するのが困難であるという問題以前に、そもそもプライバシーの侵害に本人が気づくことができないという問題もあります。LAION-5Bに自分の画像が入っているかを調べる「Have I Been Trained?」といったサービスはありますが、ほとんどの人はこのようなサービスを使って自分の顔写真を収録したデータセットがないか探し回るようなことはしないからです。

Li氏は「一般的に、ほとんどの人はAI用のデータセットにアクセスできませんし、自分の画像がそこに使われているかどうかも分かりません。確かに、それを調べるためのツールはあります。しかし、普通の人は自分の写真が使われているかどうかを確認するために、わざわざ世の中にある全ての機械学習データセットを見張ったりはしないでしょう。ですから、自分が被害を受けていることに気づかないかもしれないというのは、本当に問題です」と述べています。


特に、遺伝性疾患の患者が医師に提供した医療記録の写真がデータセットに入っていた事例のように、本人はそもそもインターネットに顔写真をアップロードした心当たりさえない場合も十分にあり得ます。

カナダにあるカルガリー大学地域リハビリテーション・障害学科のザック・マーシャル准教授の調査によると、医学雑誌などに掲載された症例報告の70%で、少なくとも1枚の画像がGoogle画像検索で発見されているとのこと。マーシャル准教授は「臨床医たちは、患者に警告しなければならないことさえ知らないでしょう。顔写真を撮影する際は患者に同意書を書いてもらいますが、ほとんどの同意書はこのような問題には触れていません」と述べました。

この問題をさらに複雑にしているのは、LAION-5Bのようなデータセットは画像そのものではなく、インターネット上にある画像へのリンクとそれに関するテキストデータをとりまとめたものだという点です。このことから、データセットを作成している企業らは「悪いのはインターネットであって自分たちではない」と主張しています。しかし、無許可でネット上に流出した顔写真を利用してAIが新たな画像を生成すれば、プライバシー侵害の問題がさらに深刻化するとMotherboardは指摘しています。


自分の顔写真をデータセットの中から見つけたり、そこから顔写真をホストしているウェブサイトを特定して管理者に削除を求めたりすることは個人には非常に困難なことから、Li氏は「AIや機械学習ツールの開発者、そして実際にデータセットを作っている人こそ責任を持つべきであって、写真やデータを使用された個人が責任を負わされるべきではありません。それは本当に大変なことですから」とコメントしました。

Li氏によると、こうした問題を未然に防ぐため、アメリカの連邦取引委員会は企業や団体が悪意を持って、あるいは違法に収集した個人情報を使って構築したアルゴリズムやAIモデルの破棄を命じる「アルゴリズム破壊(Algorithmic destruction)」という枠組み作りを進めているとのことです。

この記事のタイトルとURLをコピーする

・関連記事
画像生成AIユーザーがAI学習用データセットから「自分の医療記録の写真」を発見してしまう - GIGAZINE

画像生成AIに自分の作品が勝手に使われたかどうかを検索できる「Have I Been Trained?」 - GIGAZINE

画像生成AI「Stable Diffusion」を使いこなすために知っておくと理解が進む「どうやって絵を描いているのか」をわかりやすく図解 - GIGAZINE

まるで人間のアーティストが描いたような画像を生成するAIが「アーティストの権利を侵害している」と批判される - GIGAZINE

アーティストの権利侵害やポルノ生成などの問題も浮上する画像生成AI「Stable Diffusion」の仕組みとは? - GIGAZINE

in ソフトウェア,   ネットサービス, Posted by log1l_ks

You can read the machine translated English article here.