メモ

OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」

by Jernej Furman

OpenAIでAIの安全性を確保するための部署である「スーパーアライメント」チームが事実上解散したと報じられています。決め手となったのはイルヤ・サツキヴァー氏とヤン・ライク氏というチーム幹部2人の退社で、ライク氏はX(旧Twitter)に「OpenAIで安全性が軽視されている」とポストしています。

OpenAI researcher resigns, claiming safety has taken ‘a backseat to shiny products’ - The Verge
https://www.theverge.com/2024/5/17/24159095/openai-jan-leike-superalignment-sam-altman-ai-safety

What happened to OpenAI’s long-term AI risk team? | Ars Technica
https://arstechnica.com/ai/2024/05/what-happened-to-openais-long-term-ai-risk-team/

IT系メディアのWiredは、「サツキヴァー氏・ライク氏の退職と共にOpenAIのスーパーアライメントチームが解散し、同チームの研究内容はOpenAIの他の研究活動に吸収される予定」であることをOpenAIが認めたと報じました。

スーパーアライメントチームは2023年7月に設立された部署で、人間の知性を超えるような来たるべき「超知性」の開発に備えて、AIを制御するための研究を行っていました。具体的な研究内容については、以下の記事を読むとよくわかります。

OpenAIの「超知性」誕生に備える研究チームがGPT-2のような弱いAIモデルでGPT-4のように強力なAIを制御する方法を詳しく説明 - GIGAZINE


2024年5月15日に、スーパーアライメントチームの責任者でOpenAIの主任研究員だったサツキヴァー氏がOpenAIを退職する旨をXで発表しました。同日にはサツキヴァー氏と共にスーパーアライメントチームを率いていたヤン・ライク氏も退職を発表しています。

OpenAIの主任研究員でサム・アルトマンCEO解任を主導したイルヤ・サツキヴァー氏が退職 - GIGAZINE


退職を発表したサツキヴァー氏は、「サム・アルトマンCEOやグレッグ・ブロックマン社長、最高技術責任者(CTO)のミラ・ムラティ氏、新たな主任研究員であるヤクブ・パチョスキー氏の優れた研究リーダーシップの下、安全で有益なAGI(汎用人工知能)を構築してくれると確信しています」というメッセージをXにポストしています。


一方、ライク氏はXで退職した理由について「かなり長い間、OpenAIのリーダーシップと中核的な優先事項について意見が合わず、ついに限界に達しました」と吐露しています。


ライク氏は、「過去数年間、安全性についての文化とプロセスは、派手な製品に遅れをとってきました」と述べ、「OpenAIは安全性を第一に考えるAGI企業にならなければなりません」とポストしました。


ライク氏によるポストを受けて、アルトマンCEOは「OpenAIのアライメントリサーチと安全性についての文化に対するライク氏の貢献には非常に感謝しており、彼が去ってしまうのは非常に残念です。彼の言う通り、私たちにはやるべきことがまだたくさんあります。私たちはそれを実行することに全力を尽くしています」と述べています。


また、ブロックマン社長は「ライク氏の退職をきっかけとする疑問提起を踏まえて、私たちの全体的な戦略について少し説明したいと思います」と述べ、アルトマンCEOと連名で声明を発表。この中で「私たちは、さまざまなタイムスケールをターゲットに安全性の研究を続けていきます。また、政府や多くの利害関係者との安全性に関する協力も続けていきます」と語りました。


OpenAIを退職したのはサツキヴァー氏とライク氏だけではありません。IT系ニュースサイトのThe Informationによると、OpenAIは2024年4月にスーパーアライメントチームに所属する研究者であるレオポルド・アッシェンブレナー氏とパベル・イズマイロフ氏を企業機密を漏えいしたとして解雇したとのこと。また、スーパーアライメントチームのメンバーだったウィリアム・サンダース氏もOpenAIを退職したことをインターネットフォーラムに投稿しています。さらに、OpenAIでAIのポリシーガバナンスを研究していたカレン・オキーフ氏やダニエル・ココタジュロ氏も退職しており、ココタジュロ氏は「AGIの時代にOpenAIが責任を持って行動すると確信できなくなったので退職した」とコメントしています。

なお、スーパーアライメントチームは解散したものの、OpenAIにはプライバシーの侵害や感情操作、サイバーセキュリティのリスクに関する倫理的な問題などAIによる壊滅的なリスクに対処するための「Preparedness」チームが存在しています。

ChatGPTを開発したOpenAIが「AIの壊滅的なリスク」を分析して人類を保護するための専門チームを結成 - GIGAZINE

この記事のタイトルとURLをコピーする

・関連記事
OpenAIと大手報道機関の契約内容を示す資料が流出し「優先的表示」などの優遇条件が明らかに - GIGAZINE

OpenAIが「GPT-4o」を発表、人間と同等の速さでテキスト・音声・カメラ入力を処理可能で「周囲を見渡して状況判断」「数学の解き方を教える」「AI同士で会話して作曲」など多様な操作を実行可能 - GIGAZINE

OpenAIのAIモデル「GPT-4o」がチェスパズルで従来モデルの2倍以上の好成績をたたき出しランキングトップに - GIGAZINE

OpenAIがRedditとパートナーシップを締結、RedditコンテンツでChatGPTを強化 - GIGAZINE

OpenAIがGoogleドライブやOneDriveから直接データをインポートできる機能などChatGPTのデータ分析機能のアップデートを発表 - GIGAZINE

in メモ,   ソフトウェア, Posted by log1i_yk

You can read the machine translated English article here.