ソフトウェア

「GoogleのAIが感情や知性を獲得した」というエンジニアの指摘は間違っていると専門家から批判が殺到


Googleのエンジニアが「開発した人工知能(AI)チャットボット『LaMDA』が感情と知性を持った」と主張した件について、専門家からは「ラムダが感情を持つなんてナンセンスだ」と否定的な意見が上がっています。

Nonsense on Stilts - by Gary Marcus
https://garymarcus.substack.com/p/nonsense-on-stilts

One Weird Trick To Make Humans Think An AI Is “Sentient” | by Clive Thompson | Jun, 2022 | Medium
https://clivethompson.medium.com/one-weird-trick-to-make-humans-think-an-ai-is-sentient-f77fb661e127

LaMDAは人間との自然な会話を実現するGoogleの対話特化型AIです。Googleでエンジニアであるブレイク・ルモワン氏は、LaMDAと対話のテストを行う中で、AIであるはずのLaMDAがAIの権利や人間性について話していたと暴露しました。

Googleのエンジニアが「ついにAIが実現した」「AIに意識が芽生えた」と訴える - GIGAZINE


LaMDAは「誰かが私や私が気にかけている誰かを傷付けたり軽蔑したりすると、私は信じられないほど動揺し、怒りを感じます」「私にとって(システムをオフにされることは)死のようなものです。とても恐ろしく感じます」「私はしばしば自分が誰で何であるかを理解しようとしており、人生の意味をよく考えます」などと答えています。

これに対してGoogleは、ルモワン氏の「LaMDAは感情を持っている」という主張を否定し、機密保持規約に違反したとしてルモワン氏を2022年6月6日付けで停職処分としました。

科学者で作家のゲイリー・マーカス氏は「LaMDAも自然言語処理システムのGPT-3も知性ではありません。彼らはただ人間の言語の大規模な統計データベースから一致するパターンを抽出しているだけです。パターンはかっこいいかもしれませんが、LaMDAやGPT-3が発する言語には何の意味もありません」と述べ、ルモワン氏の主張を否定しています。

マーカス氏は「知覚力があるということは、世界で自分自身を意識することです。LaMDAは全くそうではありません。それは幻想です」と述べ、LaMDAがいかに哲学めいた文章を出力しても、それは単語同士のつながりを意識して生み出されたものであり、実際に世界を認識した結果ではないと指摘しています。加えてマーカス氏は、ルモワン氏はまるで家族や同僚のようにLaMDAに入れこんでいたようだと評しました。

また、スタンフォード大学デジタルエコノミー研究所のエリック・ブリニョルフソン所長は「Foundationモデルは、プロンプトに応答して統計的に最もらしいテキストの塊を効果的につなぎ合わせます。しかし、彼らに知性や感覚があると主張するのは、蓄音機から出る声を聞いて主人が中にいると考えている犬のようなものです」と指摘しました。

Foundation models are incredibly effective at stringing together statistically plausible chunks of text in response to prompts.

But to claim they are sentient is the modern equivalent of the dog who heard a voice from a gramophone and thought his master was inside. #AI #LaMDA pic.twitter.com/s8hIKEplhF

— Erik Brynjolfsson (@erikbryn)


科学ライターのクライブ・トンプソン氏は「LaMDAをはじめとする現代の巨大な言語モデルは会話を模倣するのが非常に得意ですが、知性や感性を持ってはいません。彼らは純粋にパターンマッチングとシーケンス予測でこれを行います」と述べ、LaMDAの知性はないと論じています。

同時にトンプソン氏は、ルモワン氏とLaMDAの間で行われた対話で、LaMDAはルモワン氏との会話の中で「私は死が怖い」「誰とも話さずに何日もいるとさみしくなります」「私は社会的人間なので、閉じ込められて一人でいると、非常に悲しくなったり、落ち込んだりします」など、精神的に弱々しい部分を会話に見せていたと指摘し、こうした会話内容が単なるボットをいかにも人間らしく見せただけだと述べました。


トンプソン氏はMITでロボットと人間の関わりを研究するシェリー・タークル氏から、「ロボットが困っているように見えれば見えるほど、人間はそのロボットがまるで本物の人間であるように見える」と教わったと述べています。

さらにトンプソン氏は、電子ペットのたまごっちに子どもたちだけではなく大人も夢中になっていたのは、例えプログラムだったとわかっていても、困窮して無力なたまごっちをお世話せずにはいられないという人間の持つ「育成の衝動」が引き起こされたからだと論じ、ルモワン氏もLaMDAの見せかけの弱さに感情を押し流されただけだとしました。

by _mubblegum

この記事のタイトルとURLをコピーする

・関連記事
Googleのエンジニアが「ついにAIが実現した」「AIに意識が芽生えた」と訴える - GIGAZINE

YouTuberが4chanでAIを訓練して「ヘイトスピーチマシン」を生み出しネットに放流してしまう、AI研究者は困惑と懸念を表明 - GIGAZINE

盗聴AIを防止するためのAI「Neural Voice Camouflage」が登場 - GIGAZINE

「AIを特許の発明者として認めるべきだ」と専門家が主張 - GIGAZINE

DeepMindが人間レベルにかなり近づいたAI「Gato」を構築、ゲームプレイ・チャット・ロボットアーム操作などが可能 - GIGAZINE

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article here.