ソフトウェア

AnthropicがAIの安全性とセキュリティ強化のためにOpenAIの元研究者を採用して「スーパーアライメントチーム」を新設


チャットAI「Claude」などを開発するAI企業「Anthropic」が、OpenAIのAI研究者だったヤン・ライク氏を採用し、AIの安全性とセキュリティに焦点を当てた「スーパーアライメントチーム」を新設しました。

Anthropic hires former OpenAI safety lead to head up new team | TechCrunch
https://techcrunch.com/2024/05/28/anthropic-hires-former-openai-safety-lead-to-head-up-new-team/


Anthropicは「OpenAIよりも安全性を重視する」ことを目標として掲げており、今回新設されたスーパーアライメントチームはAIの安全性とセキュリティのさまざまな側面、特に「スケーラブルな監視」「弱から強への一般化」「自動アライメント研究」に焦点を当てる予定とのこと。


関係者によると、ライク氏はAnthropicの最高科学責任者であるジャレド・カプラン氏の直属となり、記事作成時点でスケーラブルな監視に取り組んでいるAnthropicの研究者はチームの組閣が進むにつれてライク氏のチームに加わることになります。


ライク氏はかつて、OpenAIでスーパーアライメントチームをイルヤ・サツキヴァー氏と共に率いていましたが、「OpenAIのリーダーシップと中核的な優先事項について意見が合わない」と述べ、2024年5月にOpenAIを退社


また、「過去数年間、安全性についての文化とプロセスは、派手な製品に遅れをとってきました」と述べ、「OpenAIは安全性を第一に考えるAGI企業にならなければなりません」と提言しています。


ライク氏とサツキヴァー氏などの主要なAI研究者を失ったOpenAIは、2024年5月にスーパーアライメントチームを解散しています。

OpenAIで超知性の制御と安全性を研究していた「スーパーアライメント」チームが解散、元幹部は「派手な製品が安全性より優先されている」 - GIGAZINE

この記事のタイトルとURLをコピーする

・関連記事
AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワークが特定の概念を呼び起こすかを知る試みをAnthropicが解説 - GIGAZINE

「安全なAIを開発する」ことでOpenAIやGoogleなど16社が合意 - GIGAZINE

「人類に壊滅的なリスクをもたらすAI」を安全に提供するためにAnthropicが既存ポリシーの反省点を公開 - GIGAZINE

日本やアメリカなど18カ国がAIの安全開発ガイドラインを共同発表 - GIGAZINE

「2025~2026年にはAIモデルの学習費用が1兆円を超えて人類に脅威をもたらすAIが登場する」とAI企業・AnthropicのCEOが予言 - GIGAZINE

in ソフトウェア, Posted by log1r_ut

You can read the machine translated English article here.