サイエンス

AIの悪用を未然に防ぐために取り組むべきこととは?

By Many Wonderful Artists

人工知能(AI)および機械学習の技術はこれまでない速度で進化しており、機械翻訳から医療用画像解析に至るまで、多くの有益な用途があります。これまで人工知能を悪意ある用途で使用されることに、ほとんど注目されていませんでした。そこで「OpenAI」のMiles Brundage氏らが発表した論文では、人工知能技術を悪意を持って使用した場合の、セキュリティリスクを調査し、これらの脅威を正しく予測し、被害の予防もしくは最小化する方法を提案しています。

[1802.07228] The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation
https://arxiv.org/abs/1802.07228

Preparing for Malicious Uses of AI
https://blog.openai.com/preparing-for-malicious-uses-of-ai/

AIを使った攻撃に対して適切な対応策が講じられていない場合、最初に「どのような攻撃を受ける可能性があるか」を検討する必要があります。そこで、OpenAIでは以下4つの対応策を推奨しています。
1.AIの悪用に対して調査・予防・緩和策を講じるため、技術研究者と密に協力する。
2.AIの研究者や技術者が、悪用により有害なアプリケーションとなる可能性を予見した場合は、事前に該当箇所の担当者とコンタクトを取り対応策を協議する。
3.AIが悪用された場合に備えて、コンピューターセキュリティ技術とAIを組み合わせておくこと。
4.これらの課題を議論するときは、グループ内やチーム内など小さなコミュニティで行うのではなくステークホルダーの範囲と関係する専門家の範囲を広げること。


AIの機能がより強力になると、脅威の状況が変化することが予想されています。通常、ソフトウェアやウェブサービスの脆弱性を突く場合、実際に攻撃に移る前に、「バグの調査」、「攻撃コードの準備」、「実現可能性の確認」など、入念な下準備が必要となります。しかし、その事前準備と攻撃をAIで実行可能になると、これらの準備にかかるコストを大幅に軽減すること可能となり、AIを応用した「新種の攻撃」の登場や、「攻撃方法の複雑化」により、攻撃されたことすら気づかないなど、真犯人にたどり着くことを困難にするという恐ろしい事態にまで発展する可能性があるとのことです

By Kyle McDonald

OpenAIでは、脅威として考えられる領域を以下の3つに絞っています。

・デジタルセキュリティ
AIを使ってサイバー攻撃を仕掛ける場合、対象に合わせて適切な攻撃を仕掛けることができるようになり、攻撃対象を容易に広げることが可能になります。これにより、スピアフィッシングなどの攻撃による被害が増大する可能性があるとのことです。また、AIによる音声合成技術を悪用して、社内の人物になりすますことで、パスワードを聞き出すなどのソーシャル・エンジニアリングの危険性が高まることも指摘しています。

・物理的セキュリティ
数千台規模の無人機や他の物理システムを使った攻撃や「クラッキングしたロボット掃除機に爆弾を仕込み、VIPのそばで爆発させる」など、AIを使ったテロ行為が行われる可能性も考えられるとのことです。

・政治的セキュリティ
AIが監視カメラを操作して、屋内や屋外のデータを収集し、警備員の配置や建物内の状況などを把握するための分析をされたり、「フェイクニュースを放送に埋め込んで世論を操作する」といった攻撃を仕掛けられる可能性があるとしています。これらは権威主義国家にとって影響が高いものとされていますが、民主主義国家においても正当な議論を損なわせる危険性があると指摘しています。

By Mike MacKenzie

上記の脅威を前提に、今後AI技術者が取り組むべき課題として以下の4つを提案しています。

・サイバーセキュリティ
コンピューターセキュリティのコミュニティでは、AIに関する多くの対策を実践しています。AI技術者は自分の研究が実際の脅威となる前に、セキュリティ技術や「脆弱性を開示する」などのノウハウを適用する必要があります。これは、苦労して実現した研究成果が「人類の敵」になるような悲劇を防ぐことにもつながるとのこと。

・リスク評価
AIと機械学習を併用するようになると、悪用による脅威が増してしまうため、事前にリスク評価を行うことが重要であるとしています。

・責任
AI研究者はAI自体のセキュリティレベルの向上を担う義務があります。教育、倫理的な声明、規格、フレームワーク、規範などの社会的な枠組みも考慮する必要があるとのことです。

技術的または政策的なソリューション
より安全なAIを実現するのに役立つと思われる有望な技術の調査と政策が介入できる余地を検討する必要があるそうです。さらにはプライバシー保護や公共でのセキュリティの他にも、法規制の対応も考慮すべき事項として挙げています。

この記事のタイトルとURLをコピーする

・関連記事
完全無敵の「AlphaGo Zero」でも使われた「AIによる自己学習」の欠点とは? - GIGAZINE

AIに「スーパーマリオ64でスターをゲットする方法」を学習させる - GIGAZINE

目をスキャンするだけで心疾患を予測できる技術をGoogleの研究者らが発表 - GIGAZINE

OpenAI開発の人工知能がゲームDota 2の1対1バトルで人間の世界チャンピオンに勝利 - GIGAZINE

AIを使用した地震検知が従来方式の17倍以上の地震を検出することに成功 - GIGAZINE

in ソフトウェア,   サイエンス, Posted by darkhorse_log

You can read the machine translated English article here.