ソフトウェア

OpenAIとロスアラモス国立研究所がAIの安全性強化のために協力


GPT-4o」などのAIモデル開発で知られるAI企業のOepnAIとロスアラモス国立研究所が、パートナーシップを結んだことを発表しました。生物科学研究の前進に向けて、AIを安全に使用する方法を共同で研究しているとのことです。

OpenAI and Los Alamos National Laboratory announce research partnership | OpenAI
https://openai.com/index/openai-and-los-alamos-national-laboratory-work-together/


Los Alamos National Laboratory teams up with OpenAI to improve frontier model safety
https://discover.lanl.gov/news/0710-open-ai/


OpenAIのミラ・ムラティCTOはロスアラモス国立研究所との提携について「公共の利益に貢献することを目指している民間組織として、ロスアラモス国立研究所と、生物科学の可能性について研究する初のパートナーシップを発表できることに興奮しています。このパートナーシップは、リスクのことを把握し、リスクを減らしつつ科学研究を進めていくという、我々の使命の必然的な進展を示しています」と述べました。

ロスアラモス国立研究所で情報システムとモデリング部門の副リーダーを務めるニック・ジェネラス氏は「AIは科学分野で大きな利益をもたらす可能性のある強力なツールですが、他の新たな技術と同様に、リスクを伴います。ロスアラモスでは今回の取り組みを、新たに設置されるAIリスク技術評価グループが担当し、リスク評価と理解の促進を助けます」と述べています。


ロスアラモス国立研究所によると、AIを利用した生物学的脅威は重大なリスクをもたらす可能性がありますが、既存の研究では、マルチモーダルな将来のAIモデル(フロンティアモデル)が、専門家以外が生物学的脅威を生み出すハードルをどれぐらい下げることになるかについての評価が行われていないとのこと。

今回の取り組みは、現在および将来のAIモデルを評価するための枠組みを確立し、AI技術の責任ある開発と展開を確保するための重要なステップになると、ロスアラモス国立研究所のエリック・ルブラン氏は説明しています。

すでに、OpenAIの研究チームはGPT-4ベースのChatGPTが生物学的脅威を生み出す可能性がある情報を提供することを発見していますが、この実験はモデルの入出力がテキストに限定されていて、画像や音声は含まれていませんでした。

OpenAIが「GPT-4は生物兵器の開発効率を高めるのか否か」を検証した結果を公開 - GIGAZINE


今後は、GPT-4oベースのChatGPTによって行われたタスクの精度の向上具合を調べることで、フロンティアモデルが生物学的タスクをどのように補助するかを定量化し、評価することを目指していくそうです。

この記事のタイトルとURLをコピーする

・関連記事
GPT-3.5ベースのChatGPTのコーディング能力は「古い問題には有効も新しい問題では困難に直面する」ことが明らかに - GIGAZINE

ChatGPTでのカンニングは94%が検出不能でチェックを素通りし人間よりも成績が良いことが名門大学の試験を使った実験で判明 - GIGAZINE

ChatGPTのミスを見つけるためのGPT-4ベースのモデル「CriticGPT」が開発される - GIGAZINE

in ソフトウェア, Posted by logc_nt

You can read the machine translated English article here.