AIを人類にとって有益なものとして扱うために必要なこととは?
人工知能(AI)が当たり前のようにさまざまなテクノロジーに応用されるようになった時代に、人間の専門知識を守るために必要なことをまとめた書籍「New Laws of Robotics: Defending Human Expertise in the Age of AI(新しいロボット法:AI時代に人間の専門知識を守るために)」を著したフランク・パスカル氏が、ロボットやAIといった最先端の技術を人類に有益に活用するための提言を行っています。
Pando: Why we must democratize AI to invest in human prosperity, with Frank Pasquale
https://pando.com/2021/01/05/why-we-must-democratize-AI-invest-human-prosperity-with-Frank-Pasquale/
ブルックリン・ロースクールで法学教授として働くフランク・パスカル氏は、これまでロボットやAIに関する書籍を複数著してきたという人物。そんなパスカル氏が、ロボットやAIを正しく運用するために必要な4つの基本原則として挙げているのが、以下の4つ。
1:ロボットとAIは専門家を補完するものであり、専門家に取って代わるものではない
2:ロボットとAIは人類を偽造してはいけない
3:ロボットとAIはゼロサムの軍拡競争を激化するのに用いられてはいけない
4:ロボットとAIはその作成者や管理者、所有者のアイデンティティを示さなければいけない
これらの基本原則がテクノロジーをより人道的に扱う役に立つとパスカル氏は主張。
例えば、病院でロボットが活用される場合、ロボットが医療スタッフに取って代わってしまうと、患者の親族に対して「患者は10日以内に死亡する可能性が95%です。治療を終了するためのオプションを検討しますか?」といったような、非情な通知を行ってしまうケースも考えられるとのこと。この例からもわかるように、ロボットやAIが専門家にとって代わるのではなく、補完する関係にあることが重要であるとパスカル氏。
当然ですが、ロボットが清掃業務や採掘作業といった業務において人の代わりを担うようになるケースは往々にしてあります。しかし、こういったケースではロボットの相手が「建物」や「土」であり、感情がなく、コミュニケーションの必要がありません。つまり、相手が人間で「直接的かつ共感的な識別が重要になる仕事」では、ロボットが人間の代わりを担うのは難しいとパスカル氏は考えているわけです。
また、基本原則の2つ目「ロボットとAIは人類を偽造してはいけない」が存在することで、ロボットやAIがコミュニケーションの規範を損なうことを防ぐことが可能になるとパスカル氏。「AIには作成者が人間の感情や感覚を持っているかのように人々を欺こうと設計したものがあります」「我々が生物学や社会の進化を研究する限り、怒りや共感、喪失、あらゆる種類の主観的な経験の感情は、体を持っているという具体化に基づいていることがわかるので、それは根本的に不正だと思います」と語り、AIが人間を模倣するように設計されることは間違いであると指摘しています。
アメリカの大手IT企業で働くエンジニアや研究者の中には、キラーロボットやその前進となるものを開発することを拒否する人もいます。こういった動きは、研究者やエンジニアが「どのように働き、何に取り組むか」についての再考するきっかけとなるもの。
「キラーロボットを作るな」とホーキング博士や研究者1000名以上が提言 - GIGAZINE
by Nathan Rupert
パスカル氏は「大手のテクノロジー企業における技術者の役割と彼ら自身の倫理的視点について考える際、メレディス・ウィッタカー氏やティムニット・ゲブル氏のような、テクノロジーの職場に倫理的視点をもたらすために多くの事を成した人々を称賛する必要があります。彼らは権力に抗しながら、真実を語ったということで多大な称賛を受けるに値します。また、従業員の自立を維持・拡大するために、企業内で現在も多くの戦いが起こっている点も考慮すべきです」と語り、テクノロジー業界に倫理的な視点をもたらした先人たちを称賛。
さらに、こういった人々が今後もテクノロジー業界で働けるようにするために、より制度的にものごとを考える必要があると指摘しました。例えば、テクノロジー企業の研究部門で働く場合、特定の財政的圧力から労働者を隔離することが必要であると提案しています。
なお、パスカル氏が名前を挙げたゲブル氏は、Googleで倫理的AIチームのテクニカルリーダーを務めていた人物。同氏はGoogleが利用するAIの言語モデルに倫理的問題が存在すると指摘したせいで、同社を解雇されることになっています。なお、Google社員1200人以上がゲブル氏の解雇に抗議する書簡に署名しました。
Googleが倫理的AIチームの研究者を解雇したことは「前例ない検閲」だとして非難集中、Google社員1200人以上が抗議文に署名 - GIGAZINE
by Thomas Hawk
加えて、パスカル氏は「ソフトウェアエンジニアが弁護士や医師と同じくらい活発な専門家協会を持っていれば、独立性の基準を設定し、Googleのような雇用主が倫理的に疑わしい方向に進んだ際に、業界全体で労働者を守ることができる」と語りました。
また、医師が患者に危害を加えるほど積極的に製薬会社の利益を求めるような投薬を行えば、医師免許を失う可能性があるのに対して、ソフトウェアエンジニアはダークパターンや詐欺的な行為を行ったとして、ライセンスを失うことはないと指摘。非倫理的なプロジェクトに対して、「これをするとライセンスを失効してしまうので、従うことはできません」と雇用主に対して言えるような枠組みの構築が、業界で働くエンジニアを守り、非倫理的なロボットやAIの開発を防ぐことにもつながるとパスカル氏は述べているわけです。
さらに、パスカル氏はロボットやAIに関する基本原則について、「この種の強制力は重要なものであり、法律で定められなければいけません。なぜなら、法律で定められていない場合、雇用主は拒む従業員を解雇して、代わりに喜んで行う労働者を探せばいいだけだからです。もしも20人や50人、あるいは1000人という規模の一部の人々だけが正しくロボットやAIのあり方について考え、企業と対立していたとしても、法律的な裏付けがなけれな、その人々は解雇などの危険にさらされることとなります」と語り、正しい倫理観を持ったエンジニアや研究者を守り、非人道的なロボットやAIを生み出さないために、厳格に法律を定めることの重要性を説いています。
・関連記事
ローマ教皇がMicrosoftやIBMと共同で発表した「AIの倫理に関する呼びかけ」とは? - GIGAZINE
Googleが倫理的AIチームの研究者を解雇したことは「前例ない検閲」だとして非難集中、Google社員1200人以上が抗議文に署名 - GIGAZINE
GoogleのAI研究者が解雇された一件でサンダー・ピチャイCEOが全社員に宛てたメール全文 - GIGAZINE
DeepMindが「AIの倫理」を研究する「DeepMind Ethics&Society(DMES)」を設立 - GIGAZINE
・関連コンテンツ