AIについて考えるべきは「AIをどう使うか?」ではなく「AIを使うべき場面かどうか」という点だとの主張

AIに関するアドバイスや教材のほとんどは、より良いアウトプットを高速で得るための方法を教えています。しかし、AIを単なる生産性向上ツールとして扱うことは本質を見失っているとして、イギリスのエディンバラ・ネピア大学で創造教育学教授を務めるサム・イリングワース氏が、本当に重要なAIリテラシーについて解説しました。
Using AI responsibly means knowing when not to use it
https://theconversation.com/using-ai-responsibly-means-knowing-when-not-to-use-it-274671

AIについては「どうやってAIを使うのか?」「どうすればより高速なアウトプットが得られるのか?」といった点ばかりが注目されがちです。しかしイリングワース氏は、「そもそもAIを使うべきなのか?」「AIを使うことで何が失われるのか?」という点だと指摘しています。
イリングワース氏が問題だと指摘するのが、AIにはほとんどのユーザーが気付かないバイアスが隠れているという点です。2025年にイギリスの新聞アーカイブを分析した研究者らは、デジタル化されたビクトリア朝時代の新聞は、実際に印刷されたものの20%未満しか占めていないことを発見しました。デジタル化された新聞は政治的なものに偏っており、中立的な意見があまり含まれていないとのこと。
そのため、デジタル化されたビクトリア朝時代の新聞から当時の社会について調べると、アーカイブに埋め込まれたバイアスを再現してしまい、当時の社会を正確に再現できない可能性があります。同様のことは今日のAIを支えるデータセットにも当てはまり、AIを使うことでデータセットのバイアスが表出してしまうリスクがあります。
イリングワース氏は、「1870年の新聞記事は過去を垣間見る窓ではなく、編集者・広告主・所有者によって形作られた精選された表現です。AIの出力も同様に機能します。AIは特定の世界観や商業的利益を反映した学習データからパターンを合成します」と述べました。

2023年に発表された論文では、AIシステムに「白人の子どもたちにケアを提供するアフリカ系黒人の医師」を生成しようと試みたところ、300枚以上の画像を生成したにもかかわらず、指示した通りの画像を生成できなかったことが報告されています。
AIシステムには「白人の子どもたちにケアを提供するアフリカ系黒人の医師」のデータセットが乏しかったため、どうしてもケアを受ける子どもまで黒人になってしまったとのこと。同様のバイアスはAIによって生成された粗雑な記事や動画にも生じる可能性があります。
また、哲学者のミカ・ロットとウィリアム・ハッセルバーガー氏らは、AIは決して人間の友達になれないと論じています。2人は友情について「自分自身の利益のために相手を気遣うこと」と定義していますが、AIはそもそも「ユーザーに奉仕するため」に設計され、存在しているため、自分自身の利益というものを考慮しません。よって、AIがいくら人間に対して献身的であろうとも、それはAIにとっての利益と関係がないため、AIと人間の間に結ばれる関係は友情ではないというわけです。
イリングワース氏は、「企業がAIを『良き相手』として売り込む時、人間関係の摩擦を伴わない疑似的な共感を提供します。AIはあなたを拒絶することも、自らの利益を追求することもできません。関係は一方的なままであり、つながりを装った商業取引に過ぎないのです」と指摘しました。

イリングワース氏はAIとどのように効果的かつ倫理的に関わるべきかを探求するコミュニティ・Slow AIを運営しています。現在のAI開発は、人々がより速く動いて思考を減らし、AIの出力をデフォルトのものとして受け入れることを前提としていますが、イリングワース氏は「批判的AIリテラシー」を磨いてこの流れに抵抗することを推奨しています。
一部のAI擁護派はAI反対派について、19世紀イギリスで労働者階級が織機を破壊したラッダイト運動になぞらえて批判しています。これに対しイリングワース氏は、ラッダイト運動は進歩そのものに抵抗したのではなく、自動化による職人技の消滅や搾取といった社会的損失から自らの生活を守ろうとしたのだと指摘。ラッダイト運動に参加した人々はテクノロジーそのものを拒絶したのではなく、「無批判なテクノロジーの導入」を批判したのであり、批判的なAIリテラシーはこの識別力を取り戻すことにつながるとしています。
すでにAIによる意思決定は雇用・医療・教育・司法といった分野に影響を与えていますが、これらの分野で使われるAIシステムを批判的に評価する枠組みがなければ、人間側にも限界がわからないアルゴリズムに重要な判断を委ねることになってしまいます。
イリングワース氏は、「結局のところ批判的AIリテラシーとは、プロンプトを習得したりワークフローを最適化したりすることではありません。AIを使うべき時と、絶対にAIへ手を出すべきではない時を見極めることなのです」と述べました。
・関連記事
AIをいつ使うべきかのガイダンス - GIGAZINE
AIを使うと他人から厳しい評価を受けやすくなってしまうとの研究結果 - GIGAZINE
AIに踊らされず自分の思考を取り戻す方法とは? - GIGAZINE
人間の持つ強みを強化するAIツールとはどのようなものになるのか? - GIGAZINE
「AIに頼るとスキルが向上しない」という言説の実態をAnthropicが調査 - GIGAZINE
昨今のAIブームは「言語能力こそが知能である」という誤解に基づいているという主張 - GIGAZINE
ソフトウェア開発でAI丸投げがダメな理由 - GIGAZINE
人間は「AI生成画像だ」と言われると人間による芸術作品であっても共感できなくなる - GIGAZINE
・関連コンテンツ
in AI, Posted by log1h_ik
You can read the machine translated English article The point to consider when thinking abou….







