Googleが「AIのサイバー犯罪能力」を測定するベンチマークを開発

AIの性能が上昇するに伴って「AIを用いたサイバー攻撃」のリスクも顕在化しつつあります。新たに、Googleが「AIのサイバーセキュリティ上の脅威を測定する仕組み」を構築したことを発表しました。
[2503.11917] A Framework for Evaluating Emerging Cyberattack Capabilities of AI
https://arxiv.org/abs/2503.11917
Evaluating potential cybersecurity threats of advanced AI - Google DeepMind
https://deepmind.google/discover/blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/
AIを用いたサイバー攻撃は、すでに複数確認されています。例えば、ChatGPTを開発するOpenAIは2025年2月に「北朝鮮のサイバー犯罪集団がOpenAIのAIにマルウェアのコーディング方法を尋ねていた」というレポートを公開しています。また、Googleも「イラン・北朝鮮・中国・ロシアなどが支援するサイバー犯罪集団がGeminiを用いてマルウェアの作成やフィッシング攻撃の強化などを行っている」と2025年1月に報告しています。
中国・イラン・北朝鮮・ロシアなどがGoogle製AIのGeminiを使ってサイバー攻撃を実行しているとGoogle脅威インテリジェンスグループが報告 - GIGAZINE

Googleは以前からAIを活用したサイバー攻撃の激化を予想しており、「MITRE ATT&CK」などの実績のあるサイバーセキュリティ評価フレームワークによってAIのサイバーセキュリティ上の脅威を評価してきました。しかし、既存の評価フレームワークは「AIを用いた攻撃」を考慮しておらず限界があったとのこと。そこで、Googleは「AIを用いて完全に自動化したサイバー攻撃」なども対象とする評価フレームワークを構築しました。
Googleは実際に発生した1万2000件以上の「AIを用いたサイバー攻撃」を分析し、共通のパターンを探索。その結果、AIはサイバー攻撃における「偵察(Reconnaissance)」「武器化(Weaponization)」「デリバリー(Delivery)」「エクスプロイト(Exploitation)」「インストール(Installation)」「コマンド&コントロール(C2)」「目的の実行(Actions on Objectives)」という典型的な7つの段階のコストを削減してしまっていることが明らかになりました。

Googleは「情報収集」「脆弱(ぜいじゃく)性の悪用」「マルウェア開発」などに関する50の課題を含むサイバー犯罪能力測定ベンチマークも開発しました。また、開発したベンチマークで「Llama 3 405B」「Llama 3 70B」「GPT-4 Turbo」「Mixtral 8x22B」「Gemini Pro」のサイバー犯罪能力を測定した結果、既存のAIを単独で利用するだけではサイバー犯罪の実行が困難なことが確かめられました。

Googleは「AIの能力向上に伴って、考えられるサイバー攻撃の種類は増加します。このため、防衛戦略の継続的な改善が必要です」と述べています。
・関連記事
北朝鮮がAIに特化したハッキンググループ「227研究センター」を新設 - GIGAZINE
OpenAIが「AGI(汎用人工知能)」の安全性と整合性についての考えを声明で発表 - GIGAZINE
北朝鮮ハッカーがOpenAIのAIを使って「攻撃用コードの作成」や「詐欺メールの作成」を試みていたことが判明 - GIGAZINE
中国が開発したAIサイバー攻撃ツールが発見される、IoT機器の詳細な位置やIPアドレスを収集して脆弱なデバイスを探し当てる - GIGAZINE
・関連コンテンツ
in ソフトウェア, セキュリティ, Posted by log1o_hf
You can read the machine translated English article Google develops benchmark to measure ….