ネットサービス

AIチャットボットに医療系の相談をする人が増加中だがリスクがあると専門家が警告


近年はOpenAIのChatGPTやGoogleのGeminiなどの生成AIが日常生活に浸透しており、普段からさまざまな質問をチャットAIに投げかけているという人もいます。新たな研究では、多くの人々が医療関連の質問をチャットAIにしていることが判明しましたが、これにはリスクが伴うと専門家らが警告しています。

Use of ChatGPT to obtain health information in Australia, 2024: insights from a nationally representative survey - Ayre - 2025 - Medical Journal of Australia - Wiley Online Library
https://onlinelibrary.wiley.com/doi/10.5694/mja2.52598


More people are asking generative AI questions about their health. But the wrong answer can be risky
https://theconversation.com/more-people-are-asking-generative-ai-questions-about-their-health-but-the-wrong-answer-can-be-risky-249383

生成AIはすでに人々の日常生活に浸透しているものの、登場してから間もない不安定なテクノロジーであり、誤った内容をあたかも真実であるかのように出力してしまう「幻覚(ハルシネーション)」の問題も存在します。

そこで、オーストラリアのシドニー大学ヘルスリテラシーラボで博士研究員を務めるジュリー・エアー氏らの研究チームは、2024年6月に2000人以上のオーストラリア人を対象にしたアンケートを行い、「健康に関する質問をするためにChatGPTを使用したかどうか」を尋ねました。

調査の結果、回答者の10人に1人(約9.9%)が2024年上半期にChatGPTへ質問に関する質問をしたことがわかりました。回答者にChatGPTをどの程度信頼しているか評価してもらったところ「5点満点中3.1点」という結果となり、回答者はある程度ChatGPTのことを信頼していることも示されました。さらに、まだChatGPTに健康関連の質問をしていない回答者のうち、今後6カ月以内にChatGPTを使うことを検討していると回答した割合は39%に達しました。

研究チームの調査では、健康問題の質問にChatGPTを使用した人には「健康問題のリテラシーが低い」「英語圏以外の国で生まれた」「自宅で英語以外の言語で話している」といった傾向がみられました。この結果は、ChatGPTが「オーストラリアで慣れ親しんだ形態の健康情報に触れるのが難しいと感じている人」にとって、有望な選択肢になっていることを示唆しています。


回答者らが健康に関してChatGPTを利用した一般的な目的は以下の通り。

・健康状態について学ぶ(48%)
・症状の意味を調べる(37%)
・自分がどうすればいいのか尋ねる(36%)
・医学用語について理解する(35%)

ChatGPTを使用した回答者の60%以上は、通常であれば臨床的なアドバイスを求めるべき質問を行っていました。研究チームは、こうした専門的な質問をChatGPTにすることはリスクが高く、ChatGPTの回答が臨床的なアドバイスに代わることはないと指摘しています。

今回のアンケートではChatGPTのみについて尋ねられましたが、範囲をGoogle GeminiやMicrosoft Copilotなどに広げると、健康情報を調べるためにAIを使う人の割合はさらに増えます。研究では、特に英語圏以外の文化や言語を持つ人々にAIを使う傾向がみられたことから、英語以外の言語を使っていることが健康情報を得る障壁になっている可能性があるとのこと。


確かに生成AIは、住んでいる国や文化で健康情報を手に入れにくい人にとって、健康情報にアクセスする重要な機会を提供します。実際に2023年の研究では、生成AIツールは複雑な健康トピックについては精度が低いものの、一般的な健康情報についてより平易な言葉で伝えられることが示されました。多くの健康情報は一般の人々にとって複雑すぎ、読みにくいものとなっているため、これは明確な利点だといえます。

一方で、病気の診断や病院を受診するべきかどうかをAIに尋ねる場合は、直接患者を診なければわからない問題が見落とされやすく、患者にとってのリスクが高くなります。実際、過去には「次に症状が出たら病院を受診するように」と伝えられていた患者が、2回目の症状が出た際にChatGPTにアドバイスを求め、結果的に3回目の症状が出るまで受診を控えてしまったという事例も報告されています。

研究チームは、「オーストラリアの多くの医療機関がAIポリシーを策定していますが、そのほとんどは医療サービスやスタッフがAIとどのように関わるかに焦点を当てています。私たちにとって、コミュニティにAIヘルスリテラシーのスキルを身につけさせることが急務です。このニーズは、より多くの人々が健康のためにAIツールを使用するようになると高まり、AIツールの進化と共に変化していくでしょう」と訴えました。

この記事のタイトルとURLをコピーする

・関連記事
「人間のセラピスト」対「AIのセラピスト」、セラピストを装ったAIチャットボットが有害な行為を犯すように人間をそそのかしている - GIGAZINE

AIチャットボットは医療を改善する可能性があるが人種差別を増幅させる恐れもある - GIGAZINE

医師と患者の会話をAIでメモや要約に変換する技術が一大ビジネスとなりつつあるとの報告 - GIGAZINE

対話型AI「ChatGPT」が生成した「患者への回答」は人間の医師による回答より好まれることが研究で判明 - GIGAZINE

OpenAIのサム・アルトマンCEOとハフポスト創設者が新会社「Thrive AI Health」を設立、超パーソナライズされたヘルスコーチAI提供へ - GIGAZINE

メンタルを崩している若者をチャットボットに誘導する実験を行っていたスタートアップが強く非難される - GIGAZINE

学校のカウンセラー不足を解消するために「AIと人間のハイブリッドチャットボット」の導入が進んでいる - GIGAZINE

in ネットサービス, Posted by log1h_ik

You can read the machine translated English article More and more people are turning to AI c….