サイエンス

AIはレントゲン写真から人種を90%の確率で見分けられる、ただし見分け方は不明


人間の医師にとって、肌の色などがわからないレントゲン写真から患者の人種を見分けることは困難ですが、新たに医学誌のThe Lancet Digital Healthに発表された論文で、「AIは胸部X線画像から人種を90%の精度で見分けられる」ことが示されました。研究者らはAIが人種を見分ける方法についても調べましたが、今のところAIがどうやって人種を判別しているのかは不明とのことです。

AI recognition of patient race in medical imaging: a modelling study - The Lancet Digital Health
https://www.thelancet.com/journals/landig/article/PIIS2589-7500(22)00063-2/fulltext

MIT, Harvard scientists find AI can recognize race from X-rays — and nobody knows how - The Boston Globe
https://www.bostonglobe.com/2022/05/13/business/mit-harvard-scientists-find-ai-can-recognize-race-x-rays-nobody-knows-how/

AI Can Now Predict a Person's Race From Medical X-Rays | Psychology Today
https://www.psychologytoday.com/us/blog/the-future-brain/202205/ai-can-now-predict-persons-race-medical-x-rays

すでにAIを用いた医療診断はさまざまな分野において有望結果出していますが、ハーバード大学医学部のLeo Anthony Celi准教授らは、「胸部X線画像を検査するAIプログラムが、なぜか黒人患者において病気の兆候を見逃す可能性が高い」という傾向に気付いたとのこと。

Celi氏は、「コンピューターは人種を見分けることができないのに、どうしてそうなるんだろうと自問しました」と述べています。そこで、アメリカ・カナダ・台湾・オーストラリアなどの研究者らによる国際的な研究チームが設立され、AIが胸部X線画像から人種を見分けられるのかどうかについて研究が始まりました。


まず研究チームは、レントゲンやCTスキャンで撮影された医療用の胸部X線画像に、被験者の自己申告に基づいて「白人」「アジア人」「黒人」のいずれかのラベルを付けたデータセットを使ってAIを訓練しました。データセットの画像には肌の色や髪の質感など、人種を示す明らかな指標は含まれていなかったとのこと。

そして、大量の人種ラベル付き画像で訓練したAIに対し、今度はラベルの付いていない別の胸部X線画像から人種を判別させました。すると、AIは90%以上の精度でX線画像に写っている人種を白人・アジア人・黒人の中から識別することに成功しました。この結果は被験者の体格・年齢・性別に左右されなかったそうで、胸以外の手や背骨など体のさまざまな部位を撮影したX線画像でAIを訓練した場合でも、同様に胸部X線画像から人種を判別できたと研究チームは述べています。


なお、研究チームはなぜAIが胸部X線画像から人種を判別できるのかを調べましたが、被験者の疾患・骨密度・乳房の密度といった人種による偏りがある要素を除外しても、AIは依然として人種を判別できたとのこと。

論文の共著者であり、マサチューセッツ工科大学でコンピューターサイエンスの助教を務めるMarzyeh Ghassemi氏は、「研究室の大学院生がこの論文に掲載されているいくつかの結果を見せてきた時、私は確かに『これは間違いに違いない』と思いました。正直に言って、学生達の話はクレイジーだと思いました」と述べています。Ghassemi氏は「肌に含まれるメラニン色素の情報がX線画像に埋め込まれており、AIはそれを手がかりに人種を判別している可能性がある」と考えていますが、これを確かめるにはさらなる研究が必要です。


医師の診断基準にAIが用いられることが増えてきた現代において、「AIが医療診断用画像から人種を推定できる」という事実は、AIが意図しないうちに人種的に偏った診断を下す可能性があると示唆しています。たとえば、AIは特定の患者にとって最適かどうかわからないのに、すべての黒人患者に対して偏った治療方針を示すかもしれません。一方、AIを用いている人間の医師は、AIに読み込ませていない人種的データに基づいた診断が行われていることに気づけません。

人種間における遺伝的差異よりも人種内における遺伝的差異の方が大きいと論じた「Racism, Not Race(人種ではなく、人種差別)」の著者であるハンプシャー・カレッジの生物人類学教授・Alan Goodman氏はこの論文の結論に懐疑的であり、他の研究チームが同じ結果を再現できるかどうかは疑問だとのこと。また、たとえ再現できたとしてもそれは人種ではなく「先祖が住んでいた場所の違い」ではないかとGoodman氏は指摘しています。

Goodman氏によると、ヒトのゲノムに実質的な「人種的差異」があるという証拠はないものの、「先祖がどこに住んでいたのか」によって人々の間に違いがあることはわかっているとのこと。つまり、AIが「この人の祖先は北欧、この人の祖先は中央アフリカ、この人の祖先は日本」という風にX線画像から地理的情報を推測できる場合、結果として高精度で人種が判別できるというわけです。Goodman氏は、「人々はこれを『人種』と呼びますが、私はこれを『地理的変異』と呼んでいます」とコメントしています。

AIが人種を判別する具体的な方法はわかっていませんが、Celi氏は偏った結果を出しかねないAI診断ツールの使用に消極的であるべきだと主張。「私たちは一時停止する必要があります。人種差別的・性差別的な判断をしていないことが確認できるまでは、アルゴリズムを病院や診療所に持ち込もうと急ぐことはできません」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
人種に関するデータが存在しない医療システムで人種差別が行われてしまった理由とは? - GIGAZINE

医療システムに組み込まれたアルゴリズムの人種バイアスを取り除くことは困難 - GIGAZINE

「モザイク画像の解像度を64倍にする研究」が人種差別の議論に発展、非難を集めた研究者はアカウントを停止 - GIGAZINE

Facebookが黒人男性の動画を「霊長類」とタグ付けし謝罪 - GIGAZINE

「ヘイトスピーチ検出AI」が逆に人種差別を助長する可能性がある - GIGAZINE

YouTubeのAIがチェスの「白・黒」を人種差別だと誤判定してチャンネルを閉鎖した疑い - GIGAZINE

AIは人間の言葉から女性差別や人種差別を学び取る - GIGAZINE

in サイエンス, Posted by log1h_ik

You can read the machine translated English article here.