AnthropicがClaudeの利用規約&プライバシーポリシーの更新を発表しユーザーから批判が殺到

AIアシスタントのClaudeを開発するAnthropicが、消費者利用規約およびプライバシーポリシーを更新すると発表しました。新しい消費者利用規約およびプライバシーポリシーは、2025年9月28日発効予定です。
Updates to Consumer Terms and Privacy Policy
https://www.anthropic.com/news/updates-to-our-consumer-terms

2025年8月29日、Anthropicが消費者利用規約およびプライバシーポリシーのアップデートを発表しました。これにより、より高性能で有用なAIモデルの提供が可能になるとAnthropicは説明しています。Claudeの改善と詐欺や不正使用などの有害な利用に対する保護対策の強化のため、ユーザーにデータ使用を許可するかどうかの選択肢を提供するとのことです。
消費者利用規約およびプライバシーポリシーのアップデートは、Claude Free、Claude Pro、Claude Maxのユーザーに適用されます。これらのプランに関連づけられたアカウントからClaude Codeを使用する場合も同様です。Claude for Work、Claude Gov、Claude for Educationなどの商用利用規約に基づくサービス、またはAmazon BedrockやGoogle Cloud、Vertex AIなどのサードパーティー経由を含むAPIの使用には適用されません。
Anthropicは更新された消費者利用規約およびプライバシーポリシーにより、「有害コンテンツ検出システムの精度が向上し、無害な会話がフラグ付けされる可能性が低くなります。また、将来のClaudeモデルでのコーディング、分析、推論などのスキル向上にも貢献し、最終的には全てのユーザーにとってより優れたモデルを提供することにつながります」と説明しました。
新しい消費者利用規約およびプライバシーポリシーに同意するか否かについては、既存ユーザーに対しては以下のように確認されます。変更点としては「Claudeの改善を手伝う」(ユーザーのClaudeとのやり取りをAIモデルのトレーニングに利用する)というオプションがデフォルトでは有効になっているというものです。

新しい消費者利用規約およびプライバシーポリシーは2025年9月28日に発効予定ですが、記事作成時点ですでに同意可能で、同意した場合は即座に有効になります。なお、新たらしい消費者利用規約およびプライバシーポリシーは新規または再開されたチャットおよびコーディングセッションにのみ適用され、過去のやり取りには適用されません。
また、チャットやコーディングセッションをAIモデルのトレーニングに利用することを許可した場合、データ保持期間が5年間に延長されます。このデータ保持期間は、消費者利用規約およびプライバシーポリシーに同意してから新規または再開されたセッションにのみ適用される模様。また、Claudeとの会話を削除した場合、その会話は将来のモデルトレーニングには使用されません。モデルトレーニングへのデータ提供を希望しない場合、既存の30日間のデータ保持期間が継続されることとなります。
Anthropicの新しい消費者利用規約およびプライバシーポリシーに対しては、ソーシャル掲示板のHacker News上でさまざまな意見が寄せられています。
Updates to Consumer Terms and Privacy Policy | Hacker News
https://news.ycombinator.com/item?id=45062683
あるユーザーはAnthropicの新しい消費者利用規約およびプライバシーポリシーを通知するポップアップがまるでダークパターンのようだと指摘。
別のユーザーは新しいオプションはオプトアウトできるものの、デフォルトでは有効になっており、単なる利用規約の更新を説明する文章のようになっている点が怪しく、データ保持期間も5年は長すぎると指摘しました。
他にも「私はClaudeに数学の研究を手伝ってもらっているのですが、Claudeが私とのチャットやコーディングの内容のうち未発表の研究アイデアを別のユーザーに提案し、その人が自分のアイデアとして信じてしまうようなシナリオを危惧しています」といった意見や、「皆さんこの動きに驚いてないようですが、私は本当にショックです。なんて自滅的なビジネス上の決断なのでしょうか。Googleは悪質ですが、Gmailのテキストを検索結果に表示しません。Gmailを検索結果に表示させたら、誰もGmailを使おうとは思わないからです。これは大規模言語モデル(LLM)におけるそれです」といった意見、「そもそも信用していないのでClaudeとあまり個人的な話はしないようにしていました。しかし、私が関心のあるトピックについて表面的な議論をしたり、それらのトピックに関する私の経験や経歴について話したりしたことはたくさんあります。そこで、すべてのチャットを削除し、Claudeのアカウントを削除します」といった意見も寄せられています。
さらに、Anthropicが消費者利用規約およびプライバシーポリシーを更新した理由については、「驚くことではありません。大手企業は既存のデータでのAIトレーニングの限界に達しています。彼らは既に、実質的にインターネット全体に加え、盗んだとされる大量のコンテンツ(さまざまな訴訟が起こされています)を使ってAIをトレーニングしています。最近、大手企業によるモデルアーキテクチャの大きな進歩は見られず、彼らはトレーニング用データの獲得競争に突入しています。彼らはデータを必要としており、今すぐあなたのデータを欲しがっており、それを手に入れるためにますます怪しい手段に出るでしょう」という意見もありました。
ユーザーのチャットログをAIモデルのトレーニングに利用することについて、「チャットログには驚くべきシグナルが潜んでいると思います。何億人ものユーザーと、時間とともに蓄積される多様なタスクを考えると、これはおそらくAIを向上させる最も効率的な方法でしょう。人間とAIの作業経験をAIモデルに直接再利用できるため、問題の探求と優れたアイデアの活用の両方が促進され、進歩が加速するかもしれません」といった意見もあります。
Anthropicの新しい方針に賛同するユーザーの意見としては、「LLMが過去の会話からトレーニングできるようになるということは、私たちにとって素晴らしいことではないでしょうか。このデータがなければ、LLMはそれほど改善されないでしょう。そうは言っても、文明の集合的知識のような重要なものにほんの一握りの企業が責任を負っているというリスクを私は認識しています。長期的な解決策は自己管理でしょうか?組織や個人は、学習結果を社内で保護・配布するために、モデルをローカルで使用・学習するかもしれません。もちろん、これが実現可能になるためには、コストを大幅に削減する必要があります」といったものや、「素晴らしい。データプライバシーを最優先したい人は自分のデータを使わなければいいのです。『誰も自分のデータを共有したがらない』という考えはもはや当たり前のように浸透していますが、私はデータを共有したことで恐ろしい出来事にあったことはありませんし、大きな災難に遭ったという事例も知りません。正直、私にとっては良い取引のように思えます」という意見がありました。
・関連記事
Anthropicが「Claude Opus 4.1」をリリース、コーディング能力が向上 - GIGAZINE
AnthropicのAI「Claude Sonnet 4」が100万トークンのコンテキストをサポート、7万5000行超のコードや数十の論文を1度に処理可能 - GIGAZINE
AppleがXcodeにAnthropicのClaudeをネイティブ統合するべく準備中か - GIGAZINE
「Claude 3.7 Sonnet」と「Claude Code」が登場、OpenAI o1やDeepSeek-R1を超える性能で「ポケモン」のジムリーダーを3人倒すことに成功 - GIGAZINE
Anthropicが防衛・情報機関向けのAIモデル「Claude Gov」を発表 - GIGAZINE
・関連コンテンツ
in AI, ソフトウェア, Posted by logu_ii
You can read the machine translated English article Anthropic updates Claude's terms of ….







