ソフトウェア

AI規制として「責任ある使用」を求める一方で技術革新を阻害する「強引な法律」の導入は避ける方針を明記した人工知能業界向けのAI白書をイギリス政府が発行


イギリス政府は2023年3月29日に人工知能業界向けの勧告を発表し、AI企業が順守すべき「安全性、セキュリティと堅牢(けんろう)性」「透明性と説明可能性」「公平性」「説明責任とガバナンス」「争議可能性と是正」という5つの原則をまとめたAI白書を議会に提出しました。

A pro-innovation approach to AI regulation - GOV.UK
https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper


UK unveils world leading approach to innovation in first artificial intelligence white paper to turbocharge growth - GOV.UK
https://www.gov.uk/government/news/uk-unveils-world-leading-approach-to-innovation-in-first-artificial-intelligence-white-paper-to-turbocharge-growth


With ChatGPT hype swirling, UK government urges regulators to come up with rules for A.I.
https://www.cnbc.com/2023/03/29/with-chatgpt-hype-swirling-uk-government-urges-regulators-to-come-up-with-rules-for-ai.html

イギリスにはAIスタートアップが多く存在し、世界の中でも特にAI産業が繁栄している国として知られています。イギリス政府によると、同国のAI市場は2022年に5万人以上の雇用者を生み、37億ポンド(約6000億円)の規模を示したとのこと。しかし、「AIが急速に発展する中、人々のプライバシーや人権、安全に対する将来のリスクについて疑問が投げかけられています」とイギリス政府は述べ、AIツールの使用の公平性に懸念があるとしています。


また、イギリス政府は、現行の法制度がマッチしていないために、規制を順守しようとする企業に財政的および管理上の負担を引き起こし、AIを最大限活用できなくなっているとも指摘しています。また、「イノベーションを抑圧し、AIを規制するアプローチを取る可能性がある法律」もあるため、そういった法律が強引に運用されないためにも規制当局による適切なガバナンスが求められます。

そこで、政府はAI用に単一の規制当局を設けるのではなく、安全衛生局や平等人権委員会、競争・市場庁などといった既存の規制当局にそれぞれ権限を与え、状況に応じたアプローチを考えるようにすると提案しました。今回発表された白書は、そのガバナンスのための5原則として以下を定めたものになります。

・安全性、セキュリティ、および堅牢性
AIのアプリケーションは、注意深くリスク管理された安全・安心・堅牢な方法で機能する必要がある。
・透明性と説明可能性
AIを開発・導入する組織は、いつどのようにAIが使用されるかを説明し、AIの使用によるリスクと適切に見合ったシステムの意思決定プロセスを詳細に説明できるべきである。
・公正性
AIはイギリスの既存の法律に準拠した方法で使用されるべきであり、個人を差別したり不公平な商業的成果を生み出したりするために使われてはならない。
・説明責任とガバナンス
AIの使用に対する適切な監視と、成果に対する明確な説明責任を確保するための対策が必要である。
・争議可能性と是正
人々は、AIが生み出す有害な結果や決定について争議を行う明確な手段を持つべきである。


イギリス政府は「今後12カ月間で、規制当局は組織に対する実践的なガイダンスやリスク評価テンプレートといったツールやリソースを発行し、各分野でこの5原則を実施する方法を定める予定です」と述べ、新たに法律を制定することも視野に入れています。

2023年2月に新設されたState for Science, Innovation and Technology(科学・イノベーション・技術庁)のミシェル・ドネラン長官は「AIはイギリスをよりスマートで健康的で幸せな生活と仕事の場とする可能性を秘めています。AIはもはやSFの世界のものではなく、AIの開発は驚異的なペースで進んでいるため、安全に開発できるようなルールが必要です。私たちの新しいアプローチは強力な原則に基づくものであり、人々がAIという明日の技術を解放する企業を信頼するためのものです」とコメントしました。

AIスタートアップ・Humanising AutonomyのCEO兼共同創設者であるマヤ・ピンデウス氏は「政府の動きはAIの規制に向けた第一歩です」と歓迎し、「テクノロジーをテクノロジーとして規制することは信じられないほど難しいものです。AI技術の進歩が望まれています。これはつまり、AI技術とはある意味では私たちに影響を与えるようなものであり、その進歩を一切妨げたくないということです」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE

ChatGPTなどの優れたチャットボットAIがいかに犯罪に使われやすいかをユーロポールがまとめて公開 - GIGAZINE

「企業の機密データをChatGPTに勝手に入力したことがある」という社会人が大量発生しておりセキュリティ上の懸念が高まっているとサイバーセキュリティ企業が指摘 - GIGAZINE

OpenAIがChatGPTなどのツールやサービスの利用規約を改定、従来よりも明確で具体的な禁止例が示される - GIGAZINE

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article here.