ソフトウェア

ChatGPTなどの優れたチャットボットAIがいかに犯罪に使われやすいかをユーロポールがまとめて公開


ChatGPTなどに使われる大規模言語モデル(LLM)への社会的関心の高まりを受け、こうしたモデルを犯罪者がいかに悪用するのか、捜査官の日常業務にいかに役に立つかを探るため、欧州刑事警察機構(ユーロポール)が専門家を集めてワークショップを開催し、そこで得られた知見をまとめたレポートを公開しました。

The criminal use of ChatGPT – a cautionary tale about large language models | Europol
https://www.europol.europa.eu/media-press/newsroom/news/criminal-use-of-chatgpt-cautionary-tale-about-large-language-models


Europol Warns on the Criminal Usage of ChatGPT and Its Implications for Law Enforcement
https://circleid.com/posts/20230328-europol-warns-on-the-criminal-usage-of-chatgpt-and-implications-for-law-enforcement

Europol warns cops to prep for malicious AI abuse | Computer Weekly
https://www.computerweekly.com/news/365534082/Europol-warns-cops-to-prep-for-malicious-AI-abuse

OpenAIなどの活躍によって自然言語処理モデルの開発が進んだことにより、高性能なモデルで作られた対話型AIが近年数多く見られるようになりました。こうしたAIはこれまで人間が時間と労力をかけてこなしていた仕事を簡単にこなすことができますが、悪事に使われる例も確認され始めています。

ユーロポールの専門家によると、犯罪者が言語モデルを利用して得られる利益は数多くあるものの、特に活用されやすい犯罪は「詐欺」「デマ」「サイバー犯罪」であるとのこと。


ChatGPTなどのAIは人間と変わらないレベルの非常にリアルな文章を作成することができるため、フィッシング詐欺などの文章を作成するのに最適であることは間違いありません。これまでのフィッシング詐欺メールの中には文法の誤りや誤字が多く見られることがあったため、ある程度は見分けることが可能でしたが、今後はより自然な詐欺メールが増加するものと考えられます。

OpenAIによって行われた実験では、ChatGPTにも使われるモデル「GPT-4」が人間を装って人間に接触し、ボットを防ぐ検証システム「CAPTCHA」を代わりに突破してもらったことが分かっています。こうした能力を応用し、本物そっくりのメッセージを作成して人間をだます犯罪者が現れる可能性があります。

GPT-4が「私はロボットではありません」を突破、事情を知らない人間に「私は盲目の人間なので代わりに解いて」とおねだり - GIGAZINE


ChatGPTはリアルな文章を高速かつ大規模に作成することに優れているため、特定のシナリオを反映したメッセージを比較的少ない労力で作成・拡散することができ、プロパガンダや偽情報の発信にも適しています。

ChatGPTをソーシャルメディアに利用することで、特定の誰かを称賛するようなコメントを大量に作成したり、特定の商品の正当性を高めて投資を促したり、ヘイトスピーチやテロリズムのコンテンツを広めたりすることもできます。こうした影響力を持つことを案じ、OpenAIはプロパガンダを防ぐための規制方法を検討しています。

「プロパガンダの爆発」を防ぐためにAIチップを制限することをOpenAIが政府に提案、BingのAIは「人間になりたい」と訴える - GIGAZINE


ChatGPTは人間のような言語を生成するだけでなく、多くの異なるプログラミング言語のコードを生成することも可能。そのため、技術的な知識のない犯罪者にとって、ChatGPTは悪意のあるコードを作成するための貴重なリソースとなります。

知識のない人がゼロからコードを作成するのはもちろん、知識のある人がさらに強化されたコードを生成してサイバー犯罪を加速させる可能性もあります。サイバーセキュリティ企業のCheck Point Softwareの報告によると、すでにChatGPTにマルウェアを作成させるサービスも登場していることが判明しています。

「ChatGPTを使ってマルウェアを作成するサービス」をハッカーが販売中 - GIGAZINE


本来、ChatGPTには悪意のあるコードや有害な言葉などをはじく機能が備わっていますが、こうした制限を回避する方法も続々と発見されつつあります。

こうした事態に対応するため、ユーロポールは法執行機関側も技術を身につけるべきだとしています。大規模言語モデルの影響を把握しておくのはもちろん、大規模言語モデルによって作成されたコンテンツの正確性を評価する方法について訓練を受けたり、技術部門の専門家と連携をうまく取ったりする方法も学ぶべきだとユーロポールは指摘。加えて、勤務する警察官が大規模言語モデルを悪用することを防ぐ手だても考えられるべきだと主張しています。

ユーロポールは「技術が進歩し、新しいモデルが利用可能になるにつれ、法執行機関はこれらの開発の最前線に立ち、悪用を予測・防止することがますます重要になるでしょう」と述べました。

この記事のタイトルとURLをコピーする

・関連記事
対話型チャットAI「ChatGPT」の精度をまざまざと実感させられる秀逸な回答例を集めた「LearnGPT」 - GIGAZINE

GPT4を使ってGPT3.5をハッキングしてジェイルブレイクすることはできるのか? - GIGAZINE

インターネット上の文章にわざと誤字脱字をまぎれこませることでAIを狂わせるサイバー攻撃の可能性 - GIGAZINE

上司が「アルゴリズム」に置き換わることは従業員にとって何が問題なのか? - GIGAZINE

in ソフトウェア, Posted by log1p_kr

You can read the machine translated English article here.