AnthropicのAGI安全対策担当者がOpenAIに移籍しAI準備責任者に就任

OpenAIの元メンバーによって設立されたAI企業・Anthropicで、汎用人工知能(AGI)の安全対策を担当していたディラン・スカンディナロ氏が、競合であるOpenAIのAI準備責任者に就任することが明らかになりました。
OpenAI Fills Safety Job Listed at $555,000 With Anthropic Hire - Bloomberg
https://www.bloomberg.com/news/articles/2026-02-03/openai-fills-safety-job-listed-at-555-000-with-anthropic-hire
OpenAI poached its new safety executive from Anthropic. | The Verge
https://www.theverge.com/ai-artificial-intelligence/873420/openai-poached-its-new-safety-executive-from-anthropic
ビジネスSNSのLinkedInによると、スカンディナロ氏はダートマス大学卒業後に、ゲームエンジンのUnityを開発するUnity Technologiesや旧Google Xから独立したロボット開発メーカーのEveryday Robots、DeepMindなどのAI関連企業でプロダクトマネージャーを務め、AnthropicではAGIの安全対策を担当してきたという人物です。
そんなスカンディナロ氏をAnthropicから引き抜くことに成功したことを、OpenAIのサム・アルトマンCEOが報告しました。
アルトマンCEOは自身のXアカウントで、「ディラン・スカンディナロをOpenAIの準備責任者として迎えられることを、非常に興奮しながらお伝えします。これから物事がかなり急速に進展し、すぐに非常に強力なモデルと協力することになるでしょう。これには我々が引き続き大きな利益を提供し続けることを保証するための、相応の安全策が必要となります。ディランはこれらの深刻なリスクに備えたり、リスクを軽減したりするための我々の取り組みを主導します。彼はこの役割において私がこれまで出会った中で、何においてもダントツで優秀な候補者です。彼には間違いなく大きな仕事が待っていますが、今夜はぐっすり眠れそうです。彼と非常に密接に協力して会社全体で必要となる変革を成し遂げることを楽しみにしています」とコメントしています。
I am extremely excited to welcome @dylanscand to OpenAI as our Head of Preparedness.
— Sam Altman (@sama) February 3, 2026
Things are about to move quite fast and we will be working with extremely powerful models soon. This will require commensurate safeguards to ensure we can continue to deliver tremendous…
スカンディナロ氏もアルトマンCEOのポストを引用し、「私はOpenAIに準備態勢責任者として参加します。Anthropicでの時間と、共に働いた素晴らしい人々に深く感謝します。AIは急速に進化しています。潜在的な利益は大きく、極端で取り返しのつかないリスクも同様です。やるべきことは山ほどあり、時間はあまりありません!」と投稿しました。
I’m joining OpenAI as Head of Preparedness. Deeply grateful for my time at Anthropic and the extraordinary people I worked alongside.
— Dylan Scandinaro (@dylanscand) February 3, 2026
AI is advancing rapidly. The potential benefits are great—and so are the risks of extreme and even irrecoverable harm. There’s a lot of work to… https://t.co/vHffY48i7x
Bloombergの報道によると、OpenAIの準備態勢責任者はAIのリスク・安全性に関する責任者で、同社のAIが安全に開発・リリースされるための準備やリスク対応策の構築を担うという役職です。報道によると、OpenAIは準備態勢責任者を2025年12月に募集しており、年収は最大55万5000ドル(約8700万円)にもなります。
なお、OpenAIは「ChatGPTが子どもの自殺を助長した」とする訴訟を受け、ChatGPTにペアレンタルコントロール機能を追加したり、AIを使う10代の若者向けの安全基準を策定する政治家向けに提案をしたりと、安全対策に注力しています。
・関連記事
OpenAIがAIの安全性のために取り組んでいる10の実践例を公開 - GIGAZINE
OpenAIが「AIがユーザーをだまして勝手に別のタスクを実行する危険性」を抑制する手法を開発 - GIGAZINE
「ChatGPTが自殺や悪い妄想をかきたてた」として複数の家族がOpenAIを訴える - GIGAZINE
ついにChatGPTに子どものAI利用を保護者が管理するためのペアレンタルコントロール機能が追加される - GIGAZINE
OpenAIがAIを使う10代の若者向けの安全基準を策定する政治家向けに「AI企業への5つの提案」を公開 - GIGAZINE
・関連コンテンツ
in AI, Posted by logu_ii
You can read the machine translated English article Anthropic's AGI Safety Officer Moves….







