人工知能を安全に使うために開発者が自問すべき5つの質問
Google、OpenAI、スタンフォード大学、カリフォルニア大学バークレー校が、人工知能(AI)を安全に活用することを目的に、具体的に起こりえる問題について記した共同論文「Concrete Problems in AI Safety(AIの安全性に関する具体的な問題)」を発表しました。この論文の概要を簡単に説明するために、Google Research Blogが、「AI開発で忘れてはならない5つのこと」を明らかにしています。
Research Blog: Bringing Precision to the AI Safety Discussion
https://research.googleblog.com/2016/06/bringing-precision-to-ai-safety.html
AI技術のめざましい発展にともなって、「AIは人類の脅威になる」という意見が数多く出されています。オックスフォード大学のニック・ボストロム氏はAI脅威論の代表的存在で、AI開発について「爆弾で遊ぶ子どものようなもの」と例えて危険性を指摘しています。
ただし、GoogleによるとこのようなAIに対する警戒の声はたいていが机上の空論であるとのこと。Googleなどが考える、AIがもたらしえる潜在的な危険に対処するために、具体的なAI開発のアプローチにおいて、長期的な視点で重要になると考える5つの問題は以下の通りです。
◆負の副作用の回避
どうすれば、AIが周囲の環境を乱すことなく目的を実現できるように保証できるでしょうか?掃除ロボットを考えたとき、「早く掃除を終えるために花壇を乗り越える」という動きをする掃除ロボットは、根本的な間違いを犯しています。
◆ハッキング報酬の回避
「ハッキングしたい」という欲望が人間にあるように、AIにもハッキングをゲームとして楽しみたいという「ハッキング報酬」があり得ます。どうすればハッキング報酬を回避できるでしょうか?きれいに掃除したいからといって、あえてゴミを散らかしてから掃除をするようなロボットは望まれません。
◆拡張性のある監視
AIは人間からのフィードバックを受けて進化するものですが、どうすれば適切なフィードバックを与えてAIの効率的な進化を実現できるでしょうか?例えば、AIが与えられたタスクをこなすのに人間の反応を活用するならば、人間にいちいち尋ねて回答を得るよりもよっぽど効率的にフィードバックを得られるでしょう。
◆安全な試行
AIシステムがチャレンジするときに、どうすれば極力、悪い反動が起こらないように保証できるでしょうか?例えば、掃除ロボットがモップを使うときに、電子機器を掃除するのに水に濡れたモップを使わせるべきではありません。
◆変化に対するロバスト性
トレーニング環境とあまりにも異なる状況下で、AIシステムが確実に状況を認識して正しく振る舞えるようにするにはどうすればいいでしょうか?例えば、作業場はオフィスほど安全ではないことを、AIに経験則から判断させる必要があります。
Googleは、機械学習システムの構築においては、厳格でオープンでさまざまな機関が参加した形で取り組む必要があると信じており、他の研究グループとの共同研究を継続して、AIの有効活用の道を探る方針とのことです。
・関連記事
人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 - GIGAZINE
自己学習する「人間のような」次世代人工知能を開発するカギとなるものは? - GIGAZINE
ロボットの悪用を防ぐ人工知能の非営利研究組織「OpenAI」がIT業界の著名な起業家や投資家らによって設立される - GIGAZINE
MicrosoftのAI「Tay」がTwitterで不適切発言を連発し狂ってしまった理由とは? - GIGAZINE
Googleで開発中の人工知能が綴ったポエムがキモいと話題に - GIGAZINE
Google会長が「人工知能は世界に横たわる厄介な問題の解決にこそ役立てられる」と語る - GIGAZINE
人工知能は教育を修正できるのか?ビル・ゲイツに聞いてみた - GIGAZINE
・関連コンテンツ