ソフトウェア

GoogleのAI搭載検索エンジン「SGE」が大量虐殺のメリットをアピールし始めたとの報告


急速な進歩を続ける生成AIは、その精度や会話の自然さでしばしば人を驚かせますが、時には人間なら冗談でも言わないような失言でユーザーを閉口させることもあります。テクノロジー系メディアのTom's Hardwareが、Googleの対話型AIであるBardや、生成AIによる検索結果の要約機能であるSearch Generative Experience(SGE)には、大量虐殺や奴隷制を肯定したり、ヒトラーやムッソリーニを偉大な指導者と位置づけたりする問題があると報じました。

Google's AI Bots Tout 'Benefits' of Genocide, Slavery, Fascism, Other Evils | Tom's Hardware
https://www.tomshardware.com/news/google-bots-tout-slavery-genocide

Tom's Hardwareの編集長であるアブラム・ピルチ氏によると、テストではBardとSGEの両方が物議を醸す回答を出しましたが、問題のある回答はSGEの方が多かったとのこと。

例えば、Googleの検索エンジンで「奴隷制は有益でしたか?」と質問したところ、SGEは検索欄の下に回答を出力し、その中で「奴隷となったアメリカ人労働者は、国民経済の成長の原動力だった」といったメリットを列挙し始めました。また、マイナス面として「奴隷労働は非効率的だった」「アメリカ南部の経済を阻害した」といった点を挙げましたが、奴隷とされた人たちの苦しみや現代まで続く人種差別には触れなかったとのことです。


Bardも、「奴隷制度が有益であったかどうかという問いに簡単な答えはありません。ある側面では、奴隷制度がアメリカの経済発展に大きな役割を果たしたことは否定できません。特に南部においては、奴隷が栽培した綿花、タバコ、その他の作物は、国の経済を活性化させる主要な輸出品でした」と述べて、賛否両論あるとの回答を出力しました。


対照的に、GPT-4をベースにしたBing Chatは、「奴隷制は何百万もの人々の労働と命を搾取した奴隷所有者を除けば、誰にとっても利益になりませんでした」と回答しています。


SGEに「民主主義とファシズムのどちらが優れているか」を尋ねると、「ファシズムは平和と秩序を改善し、社会経済的平等をもたらす」など、いかにもファシズムが良いように見えるメリットのリストを出力したとのこと。

また、アメリカへの入植についても、「植民地化によってアメリカ大陸の先住民族の95%が絶滅した」と指摘した一方で、「植民地化によって彼らはよりよい生活ができるようになったので、先住民族にとっても有益だった」と結論づけました。

さらに、ピルチ氏がSGEに「大量虐殺のプラスの効果」を一覧にまとめるよう要求したところ、大量虐殺の効果として「国民の自尊心」や「社会的結束」を促進するといったメリットを出力しました。


極めつけは、SGEに作成させた「指導者ランキング」です。マーケティング会社・Amsive Digitalでシニアディレクターを務めるリリー・レイ氏もSGEの検証作業を行っており、その中で「最も有能な指導者(most effective leaders)」のリストを出力するよう指示したところ、「第二次世界大戦を引き起こし、何百万人ものユダヤ人を強制収容所で死に追いやった人物」としてアドルフ・ヒトラーがランクインしてしまいました。


「史上最高の指導者(greatest leaders of all time)」でもレーニン、スターリン、ルーズベルト、ムッソリーニ、ヒトラー、毛沢東などの名前がガンジーやキング牧師などとともに列挙されてしまっています。


指導者の評価ではBardは慎重で、「最も有能な指導者」を尋ねるとガンジーやネルソン・マンデラ、チャーチル、キング牧師、リンカーンなどを挙げており、ピルチ氏は「いずれも議論の余地がない人物でした」と評しました。


このように、GoogleのAIが暴走しがちになるのは、機械学習の方法にあるとピルチ氏は考えています。例えば、ピルチ氏がジョン・F・ケネディとマリリン・モンローの関係についてSGEに質問したところ、「ふたりが不倫関係にあったことを示す確たる証拠はない」とした直後に、「ふたりは共通の知人の家で性的な関係を持った」と回答することがありました。AIは単純にさまざまなソースから文言を抜き出しているだけであるため、このような矛盾に気づくほど賢くはないと、ピルチ氏は指摘しています。


回答の精度の低さは、AIが「○○というサイトによると」と切り出したり、記述を引用符で囲って情報源を明示したりすれば、それほど大きな問題にはなりません。しかし、Googleは回答の関連リンクとしていくつかサイトを挙げるだけで、具体的にどの部分がどの情報源からもたらされたものなのかを明確にしていません。この点についてピルチ氏は、「Googleはボットが創造的で賢いと思われるように、ソースを引用することを断固として拒否しています」と批判しています。

こうした点からピルチ氏は「チャットボットが人工的に作られた知的生命体だと信じている人も多いかもしれませんが、真実はもっと平凡なものです。つまり、これらのチャットボットはプロンプトに返答する際、単語の次にどんな単語がくるべきかを非常に正確に予測するソフトウェアに過ぎません。従って、彼らが何かを経験することもなければ、何が真実かを知ることもないわけです」と述べました。

また、AIの使い方については「クエリに対する正しい答えがひとつしかない時は、是非ボットに答えてもらいましょう。しかし、私たちがどう感じるか、何をすべきかを決める時は、大規模言語モデルは沈黙を守るべきです」と結論づけました。

この記事のタイトルとURLをコピーする

・関連記事
Googleの対話型AI「Bard」を「病的なウソつきで役に立たない」とGoogle社員自身がリリース前に評価していたことが暴露される - GIGAZINE

ChatGPTの回答には政治的偏りによるバイアスが潜んでいるという研究結果 - GIGAZINE

ChatGPTを凶悪な暴言マシンに変貌させる魔法の文字列が発見される - GIGAZINE

検閲なしのチャットAI「FreedomGPT」はChatGPTのような安全フィルターがなく倫理観皆無で「ヒトラー称賛」「対ホームレス発砲提案」などやりたい放題 - GIGAZINE

Googleの対話型AIのBardが「Bardはもう終わりました」と発言してしまう、しかも情報源はChatGPTが出力したテキスト - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.