ソフトウェア

GPT-4やChatGPTを開発するOpenAIが「AIの安全性に対するアプローチ」を発表


絵や文章などのコンテンツを自動生成するジェネレーティブAIは日進月歩で進化を続けていますが、AIに対して法的な規制を設けるべきという声も挙がっています。そんな中で、大規模言語モデルのGPT-4や対話型AIのChatGPTを開発するAI開発団体・OpenAIが「AIの安全性に対するアプローチ」を公開しました。

Our approach to AI safety
https://openai.com/blog/our-approach-to-ai-safety


◆より安全なAIシステムの構築
OpenAIは「新しいシステムをリリースする前に厳密なテストを実施し、外部の専門家にフィードバックを求め、人間のフィードバックによる強化学習などの手法を使用してモデルの動作を改善し、広範な安全および監視システムを構築します」と述べています。たとえば、GPT-4のトレーニングが終了して一般公開する前に、OpenAI全体で6カ月以上かけてより安全で整合性のとれたものにする作業を行ったとのこと。

OpenAIは「私たちは、強力なAIシステムは厳格な安全性評価を受ける必要があると考えています。こうした安全性評価が確実に採用されるようにするためには規制が必要であり、私たちはそのような規制が取りうる最善の形について政府と積極的に関与しています」とコメントしました。


◆セーフガードを改善するために実用から学ぶ
大規模な調査とテストを実施しても、技術の用途をすべて予測できるわけではなく、ラボで学べることには限界があるとのこと。OpenAIは「実際にAIを使ってみて学習できることは、時間の経過とともにますます安全になるAIシステムをリリースするための重要な要素であると信じています」と述べ、慎重かつ徐々に新しいAIシステムをリリースし、十分な保護手段を講じて、着実に拡大している人々のグループに提供し、学んだ教訓に基づいて継続的な改善を行っていくと宣言しました。

また、OpenAIは、開発者がこのテクノロジーをアプリに直接組み込むことができるように、独自のサービスとAPIを通じて最も優れたモデルを利用できるようにするとしています。これにより、不正な使用を監視して対策を講じることができ、AIシステムの不正使用への対策を継続的に構築できるとのこと。

OpenAIは「重要なのは、社会にはAIの能力が向上して適応する時間を確保する必要があり、このAIテクノロジーの影響を受けるすべての人が、AIがさらに発展する方法について重要な発言権を持つべきであるということです」と述べました。


◆子どもを守る
OpenAIは安全への取り組みの一環として、AIツールの使用に18歳以上、あるいは保護者の承認を得た13歳以上という年齢制限を検討していることを明らかにしました。また、OpenAIは憎悪・嫌がらせ・暴力・アダルトコンテンツなどのカテゴリをOpenAIの技術で作成することを認めておらず、GPT-4はGPT-3.5と比較して許可されないコンテンツのリクエストに応答する可能性が82%低くなっているとのこと。また、児童の性的虐待の素材を画像ツールにアップロードしようとすると、ブロックした上で通報すると宣言しました。

OpenAIはさらに、非営利組織のKhan Academyと連携し、学生向けの教師やアシスタントとして機能するAIを構築しているそうです


◆プライバシーの尊重
OpenAIは「私たちの大規模な言語モデルは、公開されているコンテンツ、ライセンスされたコンテンツ、および人間のレビュー担当者によって生成されたコンテンツを含む幅広いテキスト コーパスでトレーニングされています。私たちは、サービスの販売、広告、または人々のプロファイルの構築にデータを使用しません」と宣言しています。

また、トレーニング用のデータにはインターネットで入手可能な個人情報が含まれているため、可能な場合はトレーニング データセットから個人情報を削除し、モデルを微調整して、ユーザーの個人情報の要求を拒否し、ユーザーからの個人情報をシステムから削除する要求に対応する、とOpenAI。これらの手順により、モデルが個人情報を含む回答を生成する可能性が最小限に抑えられるとのこと。


◆正確性の向上
大規模言語モデルのGPT-4をベースとしたChatGPTは、人間並みの精度で自然な文章を生成するためのモデルですが、その生成方法は「学習したパターンに基づいて次につづく単語を予想して、確率的に文章を生成する」というものです。そのため、その内容については必ずしも事実であるとは限りません。

そこで、GPT-4ではChatGPTの出力に対するユーザーからのフィードバックを活用し、事実の正確性の向上が図られているとのこと。これにより、GPT-4はGPT-3.5と比較して事実に基づくコンテンツを生成する可能性が40%向上しているそうです。

◆継続的な調査と関与
OpenAIは「AIの安全性に関する懸念を解決するための実際的なアプローチは、効果的な軽減策と調整手法を研究し、実際の悪用に対してそれらをテストするために、より多くの時間とリソースを費やすことであると考えています」と述べ、「AIの安全性を維持すること」と「AIの機能を向上させること」は密接に連携する必要があると論じています。「政策立案者とAIプロバイダーは、AIの開発と展開が世界規模で効果的に管理されていることを確認する必要があります。これは、技術革新と制度的革新の両方を必要とする困難な課題ですが、私たちが貢献したいと考えている課題です」とOpenAIは語りました。

この記事のタイトルとURLをコピーする

・関連記事
OpenAIがイタリアからのChatGPTへのアクセスをブロック - GIGAZINE

ChatGPTへのアクセスをブロックしたイタリアに続きドイツなどEU諸国でもブロックを検討中 - GIGAZINE

AI規制として「責任ある使用」を求める一方で技術革新を阻害する「強引な法律」の導入は避ける方針を明記した人工知能業界向けのAI白書をイギリス政府が発行 - GIGAZINE

「コントロールの喪失」の恐れがあるとしてGPT-4を超えるAIの即時開発停止を全技術者に対して6カ月間求める公開書簡、イーロン・マスクやスティーブ・ウォズニアックなど1300人以上が署名 - GIGAZINE

画像生成AI「Midjourney」では中国の習近平国家主席の画像を生成することが禁止されている、政府による検閲を強化するという批判も - GIGAZINE

in ソフトウェア, Posted by log1i_yk

You can read the machine translated English article here.