「AIによる絶滅リスクの軽減は核戦争やパンデミック対策と同等の優先事項」と訴える書簡にOpenAIのサム・アルトマンCEOら350人以上のAI研究者や企業のCEOが署名
Google DeepMindやAnthropic、OpenAIをはじめとするAI研究団体のCEOやAI研究者ら350人以上が、「AIによる人類滅亡リスクの軽減は核戦争やパンデミックと同等の世界的な優先事項である」という内容の書簡に署名し、政策立案者に対してAIによるリスクを訴えています。
Statement on AI Risk | CAIS
https://www.safe.ai/statement-on-ai-risk
AI Extinction Statement Press Release | CAIS
https://www.safe.ai/press-release
Top AI researchers and CEOs warn against ‘risk of extinction’ in 22-word statement - The Verge
https://www.theverge.com/2023/5/30/23742005/ai-risk-warning-22-word-statement-google-deepmind-openai
OpenAI execs warn of “risk of extinction” from artificial intelligence in new open letter | Ars Technica
https://arstechnica.com/information-technology/2023/05/openai-execs-warn-of-risk-of-extinction-from-artificial-intelligence-in-new-open-letter/
AIの責任ある倫理的開発を推進する非営利団体であるCenter for AI Safety(CAIS)は2023年5月30日に、「AIによる絶滅リスクを軽減することは、パンデミックや核戦争といった社会的規模の大きいリスクと並ぶ世界的な優先事項であると認識すべき」との声明を発表しました。
この声明に対して、OpenAIのサム・アルトマンCEOやGoogle DeepMindのデミス・ハサビスCEO、Anthropicのダリオ・アモデイ氏のほか、ヨシュア・ベンジオ氏やスチュアート・ラッセル氏など、350人以上のAI研究企業のCEOや研究者が賛同する署名を行っています。
CAISのダン・ヘンドリックス所長は「新型コロナウイルスの流行前、『パンデミック』という概念は一般の人々の考えにはありませんでした。同様の問題がAIでも起きないように、AIリスクに関する制度や規制を構築することに『時期尚早だ』という考えはありません」と主張しています。
また「AIに関する問題に取り組みながら、AI業界や世界中の政府が将来のAIが人間の存在に対して脅威を与える可能性があるというリスクに真剣に立ち向かう必要があります」とヘンドリックス氏は述べています。
さらに「AIによる絶滅リスクを軽減するには、グローバルな行動が必要です。これまで世界は核戦争が起こるリスクを軽減するためにうまく協力してきました。未来のAIシステムがもたらす危険に対処するためには、核戦争リスクの軽減と同じレベルの努力が求められます」と主張しています。ヘンドリックス氏はまた「今回発表した声明は非常に簡潔で、AIがもたらす脅威を軽減するための方法を示していませんでしたが、私たちの目的は、AI研究者や企業のCEOとの意見の不一致を回避することです」と語っています。
一方で作家のダニエル・ジェフリーズ氏は「将来的なAIによる絶滅リスクは架空の問題であり、架空のものを修正することはできません。それよりも現実世界の問題に対する実践的なAIソリューションに労力を費やしてほしいと願っています」と書簡について批判しています。また「架空の将来的な問題を解決しようとすることは時間の無駄です。現在の問題を解決すれば、おのずと将来的な問題も解決されることでしょう」と述べています。
AI risks and harms are now officially a status game where everyone piles onto the bandwagon to make themselves look good.
— Daniel Jeffries (@Dan_Jeffries1) May 30, 2023
It costs absolutely nothing to say you support "studying" existential risk (you can't do this in any meaningful way) and that you support "doing something…
また、Metaのヤン・ルカン氏は「人間の知性を超えるAIはまだ存在しないので、AIによる絶滅リスクをパンデミックや核戦争と同列に位置づけるのは時期尚早だと考えています。せめて犬レベルの知性を持ったAIが登場してから、AIを安全に開発する方法について議論するべきです」と批判しています。
Super-human AI is nowhere near the top of the list of existential risks.
— Yann LeCun (@ylecun) May 30, 2023
In large part because it doesn't exist yet.
Until we have a basic design for even dog-level AI (let alone human level), discussing how to make it safe is premature. https://t.co/ClkZxfofV9
2023年3月には「社会や人類への深刻なリスク」があるとして、次世代大規模言語モデルであるGPT-4を超えるAIに対して6カ月間にわたる即時開発停止を求める書簡がFuture of Life Instituteによって公開され、イーロン・マスク氏やAppleの共同創設者であるスティーブ・ウォズニアック氏らがこの書簡に署名しています。
「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE
・関連記事
ChatGPTの開発元OpenAIが「10年以内にAIがほとんどの分野で専門家のスキルレベルを超える」という懸念に基づき「超知能AI」の登場に備えるべく世界的な規制機関を立ち上げる必要があると主張 - GIGAZINE
ゲーム開発者が「一晩でAIに仕事のやりがいを奪われてしまった」と悲痛な叫びを漏らす - GIGAZINE
Mozillaが「秘密にまみれた大企業のAI」を打破するべくオープンなAI開発企業「Mozilla.ai」を設立 - GIGAZINE
今後は全職業の80%がAIの影響を受けるとの研究結果、ChatGPTで影響を受ける仕事は賃金が高い傾向あり - GIGAZINE
採用活動でAIを利用する企業に対し「AI利用を通知・説明すること」を義務付けるAI規制法をニューヨーク市が施行 - GIGAZINE
・関連コンテンツ
in ソフトウェア, Posted by log1r_ut
You can read the machine translated English article More than 350 AI researchers and company….