サイエンス

研究者でない一般人がAIについて本当に考えるべきこととは?

by Creative Ignition

近年、AI(人工知能)や機械学習に関する研究が発達し、日々のニュースや会話の中にも登場するようになっています。しかし、専門の研究者やエンジニアでなければ、AIと言われても「なんだかすごいことができるらしい」「囲碁や将棋でプロに勝った」くらいの認識で、さっぱりわからないという人も少なくないはず。しかし、知識がないからといってAIに関して理解できできないのはもったいないもの。そんな人向けに、「AI研究者やプログラマー以外の人間がAIについて本当に考えるべき点は何か?」について、GoogleでAI関係の仕事に就いていたYonatan Zunger氏が解説したコラムがMediumに掲載されています。

Asking the Right Questions About AI - Yonatan Zunger - Medium
https://medium.com/@yonatanzunger/asking-the-right-questions-about-ai-7ed2d9820c48

Zunger氏は、「ここ数年、AIが世界を救うのか、それとも世界を破滅に導くのかという極端な議論が続いてきました」と述べています。しかしこの議論は、「SNSが民主主義を崩壊させる」「トースターの普及によって人々がパンを焼けなくなる」といった極論と同レベルであり、全くナンセンスだそうです。「実際に現在のAIに求められている議論とは『AIは人類の味方か、それとも敵か』というような極論ではなく、非常に専門的な技術的課題でもありません。それは一般の人々が十分に思考可能な問題であり、また議論に参加するべき問題でもあるのです」とのこと。

Zunger氏によると、まず私たちは「AIとは何をするものなのか」という点をよく理解する必要があります。AIとは、入力された情報に対して自らの持つ情報を元に「取るべき行動を予測」する装置のこと。世界から情報を収集するカメラ・マイク等のセンサーはAIそのものとは区別され、「AIが予測した行動」の情報を受け取って実際に行動に移すデバイスも、AIそのものではありません。人間にたとえるならば、目や耳などの感覚器官がセンサー、外部の刺激に応じて思考する脳がAI、刺激に応じて動く腕や足が行動に移すデバイスというわけ。

Zunger氏は受け取った刺激に対して反応するシンプルな機械の例として、気体や流体の圧力を調節するバルブを挙げています。バルブはバルブ本体にかかる圧力を受け、弁を緩めるか締めるかを機械的に決定するもの。この場合、バルブは1つのインプットに対して1つのアウトプットという結果で返しています。Zunger氏は、AIがやろうとしていることはバルブとは違い、膨大な量の情報をインプットしてアウトプットを決定するというものだといいます。「自動運転カーなら周囲の車の流れ・天候・障害物・異音などの情報から適切な走行を判断したり、ウォンバットの生態に関する調査ならさまざまなウェブページを参照し、適切な情報をまとめたりするのです」と述べています。

by ryan and alyssa

次に、「AIが持つ利点・欠点」について知る必要があります。Zunger氏はAIが持つ利点の一つに、「飽きることも集中力が途切れることもない」という点を挙げます。人は 膨大な量の学習をするにしても途中で飽きたり疲れたりしてしまいますが、AIは長時間連続で新しい教材をインプットすることができます。また、自動運転カーの運転中に集中力が途切れることもありません。これは人間のドライバーが1、2時間の運転で集中力を失ってしまうのに対し、非常に優れている点であるといえます。

AIが苦手な(ものだと考えられている)点として、「当たり前に人間がやれていること」というものをZunger氏は挙げています。人間が当たり前にできることをAIにやらせてみると、思いの外苦戦して「AIもたいしたことないな」と思われることがありますが、Zunger氏によるとこれは、人間が直感的にできる分野においてハードルを上げているから。これは最近話題になっている顔認識であったり、歩いたり走ったりする単純な運動機能にも当てはまることです。人間はほとんどの場合、誰に教えられなくても当然のように家族や友達、TVタレントの顔を見分けることができます。ところが、AIの顔認識機能は未だに顔の似ている兄弟や親子を誤認識することがあり、完璧とは言えません。「AIによってロボットを動かすにしても、ごちゃごちゃとした部屋を難なく通り抜けたり、水の入ったグラスを持ったまま歩いたりといった、人間が得意とする運動機能は人間に比べると苦手であると言えるでしょう」とZunger氏は述べます。

AIが得意とするのは「予測可能な環境において明確な目標を達成する」ものだとのこと。「これは単純なプログラムや監視機能に適用されています」とZunger氏。「それが『予測不可能な環境において明確な目標を達成する』ものになると少し難しくなりますが、これは現在自動運転カーや自律式ドローンが直面している課題です。AIが最も苦手とするのは『予測不可能な環境において目標も定まっていない状況』です。このような不安定な状況では、AIは何をしたらいいのか自分では判断できず、力を発揮することができません」とZunger氏はAIの得意分野・苦手分野についてまとめています。つまり、たとえば「人生の目標を立てる」という漠然とした指示をAIに出しても、どのような目標を立てることが正解なのかわからない状況下では、AIは判断を下すことができないのです。

by quisnovus

Zunger氏が次に持ち出したのは倫理的な問題です。有名な議論の一つに、「AIが制御する自動運転カーは目前の人にぶつかりそうになったとき、乗客の安全を守るために目前の人をそのままひき殺すか、それとも目前の人を守るために車を路肩にクラッシュさせるのか」といったものがあります。Zunger氏はこの議論においてまず理解するべき点は、「そもそもほとんどの事故はドライバーの不注意や過失によって起こるもの」だといいます。大抵の事故はドライバーが周囲の安全確認をしっかりするか、集中力を切らさなければ回避できるとZunger氏は考えています。

しかし、少数ながら絶対に回避できない事故は起こるもの。そして、Zunger氏がここから先で議論するべきだという点は、「私たちがAIにどのようなプログラムを施すのか」という点です。「AIは事前のプログラム通りに作動するため、『乗客の安全を優先して目前の人をひき殺す』『目前の人を守るため車をクラッシュさせる』のかを、私たちの社会で共通の意思決定を行う必要があります」とのこと。「AIがどうするのか」ではなく、「私たちがどう決めるか」を議論するべきというわけ。

by William Murphy

そして、AIが知能を獲得する過程において必要不可欠な「機械学習の落とし穴」についても知る必要があるとZunger氏は述べます。「この落とし穴について説明するにあたって、ぴったりの事件に『3人のティーンエージャー事件』があります。これは、ある高校生が『3人の白人ティーンエージャー」と「3人の黒人ティーンエージャー』というワードでGoogle検索をかけたとき、表示される画像に明確な偏差があったことを発表した事件です。『3人の白人ティーンエージャー』では健康的で快活な雰囲気の白人3人の写真が主に表示されたのに対し、『3人の黒人ティーンエージャー』では逮捕されたときに撮影される顔写真(マグショット)が主に表示されるという差がありました」

これは、Google検索が人種差別的であるというわけではありません。Google検索がこのような画像表示をした理由とは、ネット上にあふれるテキストを参照した結果、「3人の白人ティーンエージャー」に関連して白人3人のマグショットが少なく、「3人の黒人ティーンエージャー」に関連して黒人3人のマグショットが多かったのが原因だとのこと。人々がニュースのテキストを書くとき、3人の白人ティーンエージャーが逮捕されても「3人のティーンエージャーが逮捕」とのみ記し、3人の黒人ティーンエージャーが逮捕されたときには「3人の黒人ティーンエージャーが逮捕」と記す傾向にあり、Google検索はそれに従っただけでした。つまり、AIがこのような差別的とも取れる検索結果を表示したのは、人間側に差別的な意識があったということの証拠でもあるのです。


AIに関連する倫理的な問題としては、「Googleフォトのゴリラ・タグ付け事件」も世界中の人々に大きな衝撃を与えました。これは、AIが黒人の画像を「ゴリラ」として認識してしまったという事件で、開発者が謝罪する事態にまで発展しました。実はこの件で謝罪したGoogleソーシャル部門のチーフがZunger氏。事件から2年以上が経過した2018年1月現在でも、Googleはゴリラの画像を検索結果からブロックしており、Zunger氏にとっても苦い思い出であるはずですが、Zunger氏はこの事件についてもコラムの中で触れています。AIが黒人をゴリラと判定したことについても、AI自体に差別的感情があったわけではなく、それだけ人間が当然のように行っている顔の認識が、AIにとっては困難であるということの事例というわけ。

by Carlos Cram

Zunger氏はこれらの問題点を踏まえた上で、「結局のところ私たちが理解するべきなのは『AIは決して完璧ではなく、また人間のような自意識を持っているわけでもない、ただのツールに過ぎない』ということです」と述べます。しばしば話題になる「AIを搭載した無人のドローン爆撃機が人を殺すことの是非」についてもZunger氏は話に触れ、「この議論に関して、AIは決して爆撃の意思決定を下した責任者ではないという論点が抜けがちです。爆撃を決定したのは運用する人間の側であり、AIが果たすのはドローンの自律飛行を助けたり、照準を合わせたりといった補助的な役割に過ぎません。それでもドローンに爆撃の責任を負わせるのはナンセンスです」と話を展開しました。

「AIは明確な目標がない問題に対処できない」という点を思い返してみると、AIが何をするのかは私たち人間の手に委ねられているということがわかります。私たちは「AIが人間に与える脅威」について心を悩ませるのではなく、「AIで何をするのか?」「AIをどのように運用していくべきか?」について考える必要があります。これはAI研究家やエンジニアのみに課せられた問題ではなく、やがて来るAIの影響を受ける私たちも一緒になって対処し、議論するべき問題なのです。

・関連記事
AIを用いてゲームプレイヤーからいかにお金を搾り取るかを考案する悪夢の企画書が流出 - GIGAZINE

人間の脳を模倣した「人工ニューロン」でコンピューターは人間以上の速度で処理できるように - GIGAZINE

AIを実現する「ニューラルネットワーク」を自動的に構築することが可能なAIが出現 - GIGAZINE

Googleが「Cloud AutoML Vision」を発表、独自のデータセットを使ったカスタム機械学習モデルが簡単に構築できるように - GIGAZINE

人工知能(AI)がスタンフォード大学の読書テストで人間を凌駕するスコアをマーク - GIGAZINE

・関連コンテンツ

in サイエンス, Posted by log1h_ik