ソフトウェア

3人のAI専門家がアメリカ議会で証言、AIの現状やリスクをAI研究の第一人者たちはどう見ているのか?


2023年7月25日にアメリカの上院司法委員会が開催した公聴会で、AIに詳しい有識者3人が証言を行い、AIに関する規制のあり方や今後の展望について提言しました。

AI leaders warn Senate of twin risks: Moving too slow and moving too fast | TechCrunch
https://techcrunch.com/2023/07/25/ai-leaders-warn-senate-of-twin-risks-moving-too-slow-and-moving-too-fast/

My testimony in front of the U.S. Senate - The urgency to act against AI threats to democracy, society and national security - Yoshua Bengio
https://yoshuabengio.org/2023/07/25/my-testimony-in-front-of-the-us-senate/

AI pioneer Yoshua Bengio tells Congress global AI rules are needed - The Washington Post
https://www.washingtonpost.com/technology/2023/07/25/ai-bengio-anthropic-senate-hearing/

今回アメリカ議会で開かれた「AIの監視と規制に関する公聴会」には、Googleの出資により元OpenAIのメンバーが立ち上げたAIスタートアップ・Anthropicの共同設立者であるダリオ・アモデイ氏、カリフォルニア大学バークレー校の計算機科学者であるスチュアート・ラッセル氏、ニューラルネットワークやディープラーニングの研究で有名なヨシュア・ベンジオ氏の3人が出席し、議員らの質疑に答えました。

◆ダリオ・アモデイ氏
各専門家にはまず、短期的に最も重要な施策に関する見解として「私たちは何をすべきか?」という質問が投げかけられました。これに対しアモデイ氏は、台湾有事の危険があるTSMCを例に、AI研究に欠かせないハードウェアには地政学的要因や安全性の問題があると指摘し、「サプライチェーンの確保」が急務であると述べました。


アモデイ氏はまた、自動車や電子機器で実施されているような「試験および監査プロセスの構築」も欠かせないと強調しつつも、これらを確立するための科学技術は発展途上だと述べました。AI業界の現状についてアモデイ氏は、ライト兄弟が初飛行に成功してから数年後の飛行機になぞらえて、「規制の必要は明らかですが、新たな展開に対応できる生存力や適応力を持った規制機関により行われなければなりません」と説明しています。

アモデイ氏によると、当面のAIリスクとして最も懸念されるのは、選挙に関する誤報、ディープフェイク、プロパガンダであるとのこと。また将来的なリスクとして、最先端のAIを使えば危険なウイルスやその他の生物兵器を2年足らずで開発できる可能性があるとも話しました。

◆スチュアート・ラッセル氏
ラッセル氏は短期的な課題として、「人と接しているのか機械と接しているのかを知る絶対的な権利の確立」「人を殺すことを決定できるアルゴリズムを、いかなる規模であれ違法とする」「AIシステムが自分を複製したり、他のシステムに侵入したりすることを防ぐキルスイッチを義務化する」「ルールを破ったシステムを強制的に市場から撤退させること」の4点を示しました。


ラッセル氏が考える最も差し迫ったリスクは、パーソナライズされたAIを使った「外部への影響キャンペーン」です。これについてラッセル氏は「私たちは、ある個人に関する膨大な情報、例えばTwitterやFacebookで公開されたすべての情報をAIに提示してトレーニングし、その人に向けた偽情報キャンペーンを生成するよう依頼することができます。また、それを100万人に対して同時に仕掛けるのも朝飯前です。これは個人に合わせていないフェイクニュースの発信やスパムメールなどよりはるかに効果的でしょう」と述べました。

また、中国のAIについて質問されたラッセル氏は、同国のAI全般に関する専門知識の水準は「やや誇張されています」と指摘した上で、「中国にはかなり優れた学術部門がありますが、それは骨抜きにさせられつつあります」と回答しました。ラッセル氏によると、中国の大規模言語モデルは模倣的で、OpenAIやAnthropicを脅かすほどのものではない一方、音声や歩行者の認識といった監視分野では大方の予想通り自由主義陣営に先行しているとのことです。

◆ヨシュア・ベンジオ氏
ベンジオ氏は、「大規模なAIモデルにアクセスできる人を制限し、セキュリティと安全のためのインセンティブを設けること」「モデルが意図したとおりに動作することを確認できるようにすること」「AIの使用に関する実態を監視し、誰がこれらのモデルを作れるような規模のハードウェアにアクセス可能なのかを把握すること」の3点を課題に挙げました。


ベンジオ氏は、「自分たちAI研究者は自分たちが何をしているのか実はよくわかっていない」とした上で、そうしたAI研究の監視を行うには単に知識を増やしたり国家間で開発競争をしたりするのではなく、国際的な協力が欠かせないと指摘。AIの安全性に関する世界規模の研究に対する資金提供の必要性を強調しました。

ベンジオ氏はまた、国会での証言を振り返った自身のブログ投稿の中で「私たちは、潜在的な危険から社会、人類、そして私たち全員の未来を守りながら、AIの経済的および社会的利益を完全に享受するため、大胆かつ連携した世界規模の取り組みに最大限の頭脳を結集させ、大規模な投資を確保する道徳的責任があると確信しています」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
「AIのゴッドファーザー」がAI研究を後悔しGoogleを退社 - GIGAZINE

「AIによる絶滅リスクの軽減は核戦争やパンデミック対策と同等の優先事項」と訴える書簡にOpenAIのサム・アルトマンCEOら350人以上のAI研究者や企業のCEOが署名 - GIGAZINE

OpenAIやGoogleなど大手AI開発企業が「AI生成コンテンツに透かしを入れる」などAIの安全性強化に取り組むことを発表 - GIGAZINE

「AIが世界を乗っ取る」「AI研究を厳重に管理すべき」などのAI脅威論をAIのゴッドファーザーが否定、「AIは人間どころか犬の知能にも達していない」と主張 - GIGAZINE

AIの台頭で生まれる「新興宗教」とそのリスクとは? - GIGAZINE

AI規制法案は「現状の課題に対処せず競争力を損ねるだけだ」と欧州企業150社以上が公開書簡に署名して猛抗議 - GIGAZINE

in ソフトウェア, Posted by log1l_ks

You can read the machine translated English article here.