メモ

人間と見分けが付かないほど高精度な文章を生成するAI「GPT-3」について哲学者らはどう考えているのか?


人工知能を研究する非営利団体のOpenAIが開発した言語モデル「GPT-3」は、人間が書いたものと見分けが付かないほど高精度な文章を生成できるとして大きな注目を集めています。そんなGPT-3によって提起されたさまざまな課題や議論について、9人の哲学者らが各々の意見を述べています。

Philosophers On GPT-3 - Daily Nous
http://dailynous.com/2020/07/30/philosophers-gpt-3/


◆1:ニューヨーク大学 デイヴィッド・チャーマーズ教授
チャーマーズ氏はGPT-3が基本的に前世代であるGPT-2の拡張バージョンであり、主要な新技術が含まれているわけではないと指摘。その一方で、GPT-3には1750億個ものパラメーターが含まれており、はるかに多くのデータで訓練されたことにより、これまで作られたAIの中で最も興味深いものの1つになったと述べています。

チャーマーズ氏はGPT-3がマシンと人間を判別する「チューリング・テスト」で、これまでに作られたどのAIよりも合格に近づいた点にも触れ、GPT-3が1つの分野だけに特化した人工知能(AI)ではなく、一般的な知性を持つ「汎用人工知能(AGI)」のヒントにもなると考えているとのこと。

その一方で、GPT-3は多くの哲学的課題を提起したとチャーマーズ氏は述べ、訓練に使われるデータによるバイアス、人間の労働者から仕事を奪う可能性、悪事や詐欺などに使われる危険性など、多くの倫理的な課題が存在すると主張しています。また、GPT-3は「テキストを完成させる」といった目的以上の好みは持たない純粋な言語システムなので、「幸福」や「怒り」を本当に理解することは難しいのではないかとチャーマーズ氏は考えています。


◆2:OpenAI ポリシーチーム研究員 Amanda Askell
Askell氏は、GPT-3は多くのデータで訓練することによって複雑さを取り込み、いくつかの指示を与えるだけで細かい微調整をせずにタスクを完了させられる点が興味深いと述べています。その一方で、ほとんどのタスクでGPT-3は人間のレベルにほど遠く、コンテキスト全体で一貫したアイデンティティや信念を保つこともできないと指摘。

Askell氏は多くの哲学者らがGPT-3のような人工知能モデルについて考え、予測していることに興奮すると述べており、言語モデルの限界についての議論が哲学者らによって明確になると期待しています。将来的に言語モデルも「言語以外の世界」に触れるべくデータの範囲を広げるべきなのか、あるいは機械学習モデルの道徳的地位やAIにおける「知覚」の指標についても、今から考え始めるべきだとAskell氏は主張しました。

◆3:サンフランシスコ州立大学 Carlos Montemayor教授
Montemayor氏は「GPT-3とのやり取りは不気味です」とコメント。人間は言語能力の点で他の動物や機械よりも特に優れていると考えられてきましたが、もし機械が平均的な人間によりも優れた回答を出せる場合、前提が揺らぎます。それほどまでに優れた言語能力を持つGPT-3は、人間中心主義的な価値観からは嫌悪されるかもしれませんが、人間の知能と言語における関係を正確に理解するためのステップになり得るとのこと。

一方で、AIがチューリングテストを乗り越えるまでには長い道のりが存在しており、「人間が言語を使う目的」も重要な質問になってくるとMontemayor氏は指摘しています。社会生活の中では、単に言語を用いて意味論的情報を体系的にエンコードすることだけが重要なのではありません。言葉を交わす場の状況や相互の期待、行動のパターンといった点に注意を払う必要もあるため、GPT-3は真のコミュニケーションを行うことができるAIからはほど遠いとのことです。


◆4:プリンストン大学 Annette Zimmermann博士
Zimmermann氏は、GPT-3がもたらした驚くべき結果にAIコミュニティは有頂天になったものの、「他のAIと同様に歴史的な偏見や不平等のパターンを受け継いでいる」という欠点も引き継いでいることを指摘。機械学習アルゴリズムの開発においてデータセットに含まれる偏見や差別は大きな問題であり、複雑な道徳的・社会的・政治的な問題空間があることを示唆しているとのこと。

AIの設計において社会的意味と言語的な文脈は非常に重要であり、テクノロジーが不正や差別を定着させることがないように、研究者らは慎重に検討して議論を重ねる必要があるとZimmermann氏は述べています。また、より公正な世界を生み出すAIを設計する上でチューリングテストのように「人間」を基準にする必要はなく、より望ましいAIを作るためなら自分自身や現代社会を評価の基準にするべきではないと主張しました。

◆5:マサチューセッツ工科大学 Justin Khoo准教授
Khoo氏は、AIを利用したスピーチが生成されるようになったことで、合理的な議論を阻害するボットに対する規制に取り組む必要が生じたと主張しています。ボットが生成するスピーチはオウムが人間の言葉を繰り返すようなものであり、「保護されるべき自由な言論」には当てはまらないとKhoo氏は考えています。

「ボットの規制は、ボットを操作するユーザーから言論の自由を奪うものではないか」との指摘があることはKhoo氏も認めています。しかし、そもそも言論の自由を守る目的は、人々が意見を自由に共有して議論を行い、真実を発見する試みを守ることにあると指摘。ボットは人々の合理的な関与を妨害するものであるため、暴力の扇動や犯罪目的の発言などと同様に規制されるべきであり、「言論の自由を守るためにスピーチボットを規制する必要がある」とKhoo氏は論じました。


◆6:ヨーク大学 Regina Rini助教授
Rini氏はGPT-3や現代のAIは人間と同様の精神を持った存在ではないものの、単なる機械とも違う存在だと指摘。GPT-3はRedditの投稿やWikipediaの記事、ニュース記事などを基に、何百万もの心を統計的に抽象化して表したものだとRini氏は考えています。

インターネット上で人々が行っているやり取りの多くは特定のタスクに基づいたシンプルなものであり、すでに一部のボットやチャットサービスがインターネット上で運用されている以上、やがてGPT-3の後継がインターネット上での会話型シミュレーションボットとして使用されることは目に見えています。未来の世界では人間と見分けが付かないAIがインターネット上で活動し、インターネットの向こう側にいる個人の存在があやふやになる時代が来るかもしれないとRini氏は指摘。誰もインターネット越しの「あなた」を認識できない時代で、自分がどう思うのかについてを考える価値があるとのことです。

◆7:ユタ大学 C. Thi Nguyen准教授
Nguyen氏は、GPT-3が「芸術やゲームを生み出す真に創造的なAI」を構築する夢に向けた一歩だと主張しています。しかし、「芸術を生み出すAI」のアイデア自体に反対意見はないものの、AIが生み出す芸術やゲームから経済的利益を得る上でターゲットとなる子どもたち、企業や機関がAIを使って製品を生み出す方法、そしてトレーニングデータのバイアスについて懸念があるとのこと。

企業や機関がAIを生み出すためのデータセットとして管理できるのは、「測定可能なもの」に限られています。そのため、「よい芸術作品」を作ろうとした際のデータセットにおける評価基準は、誰かの手による「よい」「悪い」といったタグ付けや、人々がレビューサイトに投稿した「星」の数、視聴回数などに基づくものとなり、芸術の繊細で微妙な価値を取りこぼす恐れがあるとNguyen氏は指摘。すでにゲーム業界では「中毒性」が評価されるようになっており、GPT-3などのAIから生み出されるゲームにも同様の問題が生じる可能性があるとNguyen氏は考えています。


◆8:ケンブリッジ大学 Henry Shevlin博士
Shevlin氏はGPT-3を使用して、2015年に亡くなった作家のテリー・プラチェット氏との(PDFファイル)模擬インタビューを再現したとのこと。しかし、模擬インタビューはプラチェット氏の作品に関する楽しい会話ではなく、恐ろしく実存的な会話が交わされたとのことで、相手が人間ではないと知っていても緊張してしまったとShevlin氏は述べました。

GPT-3の登場はフェイクニュースの作成や人間の労働者をAIに置き換える動き、訓練データに含まれるバイアスの問題など、AI倫理の分野にとって大きな課題をもたらしています。これにより、人文科学の分野に属する学者であっても初歩的な技術的知識と理解を身に付け、テクノロジー企業によって生み出される新たなツールに取り組む必要性が高まっているそうです。

◆9:エディンバラ大学 Shannon Vallor教授
新たなテクノロジーに関する哲学を研究しているVallor氏は、GPT-3が興味深い短編小説や詩を作成するだけでなく、時には実行可能なHTMLコードも作成できる結果は印象的だと認めています。その一方で、GPT-3をすぐに汎用人工知能などと結び付けて考えることは行き過ぎであり、誇大宣伝の面もあるとのこと。

AIが超えられないハードルはそのパフォーマンスではなく「理解」であるとVallor氏は指摘し、理解は単なる瞬間的な行為ではなく持続的で生涯にわたる社会労働だと主張しています。世界を構成する他の人や物、時間、場所との変化し続ける感覚を構築し、修復し、強化する「理解」という日々の営みは知能の基本的な構成要素であり、予測的で生成的なモデルであるGPT-3はこれを達成できないとVallor氏は述べました。

この記事のタイトルとURLをコピーする

・関連記事
ローマ教皇がMicrosoftやIBMと共同で発表した「AIの倫理に関する呼びかけ」とは? - GIGAZINE

DeepMindが「AIの倫理」を研究する「DeepMind Ethics&Society(DMES)」を設立 - GIGAZINE

自然なブログを書いてしまうほど超高精度な言語モデル「GPT-3」はどのように言葉を紡いでいるのか? - GIGAZINE

超高精度な言語モデル「GPT-3」は本当に「人間そのもの」な会話ができるのか実験した結果は? - GIGAZINE

「GPT-3はビットコイン以来の破壊的な可能性を秘めている」というブログ記事が大反響を呼ぶ理由とは? - GIGAZINE

OpenAIが超高精度な言語モデル「GPT-3」用いたAIモデルをAPIとして利用可能に、Wikipediaの内容を「質問」で検索するデモムービーも - GIGAZINE

あまりに高精度のテキストを作り出してしまうため「危険すぎる」と問題視された文章生成言語モデルの最新版「GPT-3」が公開 - GIGAZINE

in メモ,   サイエンス, Posted by log1h_ik

You can read the machine translated English article here.