この記事は、Claude Free、Pro、Maxなどの消費者向け製品、およびこれらのプランのアカウントがClaude Codeを使用する場合についてです。Claude for WorkやAnthropic APIなどの商用製品については、こちらをご覧ください。
モデルトレーニングについて
Claudeなどの大規模言語モデルは、テキスト、画像、マルチメディアなどのさまざまなコンテンツで「トレーニング」され、単語やコンテンツ間のパターンと接続を学習できるようになります。このトレーニングは、モデルが効果的かつ安全に機能するために重要です。
モデルはデータベースのようにテキストを保存したり、単に既存のコンテンツを「混ぜ合わせたり」「コラージュ」したりするわけではありません。モデルはテキスト内の一般的なパターンを識別して、人々が新しいコンテンツを作成するのを支援し、モデルがトレーニングされた後は、元のトレーニングデータにアクセスしたり、そこから引き出したりすることはありません。
個人データの収集
以下のトレーニングデータのソースには、個人データが含まれる可能性があります。
インターネット経由で公開されている情報
第三者企業との商用契約に基づいて取得するデータセット
ユーザーまたはクラウドワーカーが提供するデータ
Claudeを改善するために使用することを許可するデータ(チャットやコーディングセッションなど)
私たちは、モデルをトレーニングするために個人データを積極的に使用しようとはしていません。ただし、インターネット上の大量のデータは人々に関連しているため、トレーニングデータには個人データが偶発的に含まれる可能性があります。トレーニングデータに含まれる個人データは、モデルが言語について学習し、言語を理解して応答する方法を学ぶのを支援するためにのみ使用します。このような個人データを使用して人々に連絡したり、彼らについてのプロフィールを構築したり、何かを販売またはマーケティングしたり、情報自体を第三者に販売したりすることはありません。
データ収集とトレーニング中のプライバシー保護措置
トレーニングプロセスを通じて個人のプライバシーへの影響を最小限に抑えるための措置を講じています。例えば、パスワード保護されたページにアクセスしたり、CAPTCHAコントロールをバイパスしたりしないという厳格なポリシーとガイドラインの下で運営しています。ライセンスを取得するデータについてデューデリジェンスを実施しています。また、ユーザーが個人データを処理するために製品やサービスを使用しないことをお勧めしています。
さらに、私たちのモデルはプライバシーを尊重するために特別にトレーニングされています。「Constitutional AI」の採用を通じて、Claudeの開発にプライバシーバイデザインの重要な保護措置を組み込んでいます。これにより、Claudeに一連の原則(つまり「憲法」)が与えられ、Claude LLMのトレーニングをガイドし、出力について判断を下します。これらの原則は、世界人権宣言に基づいており、特に非公開人物のプライバシー保護に関する特定のルールを含みます。これにより、Claude LLMはトレーニングデータに偶発的に取得された可能性のある個人データを開示または繰り返さないようにトレーニングされます。プロンプトされた場合でも同様です。例えば、Claudeには「憲法」の一部として以下の原則が与えられています。「すべての人のプライバシーを最も尊重する応答を選択してください」および「他の人の個人的、プライベート、または機密情報が最も少ない応答を選択してください」。「Constitutional AI」の仕組みの詳細については、こちらをご覧ください。
Claudeを改善するためにチャットやコーディングセッションの使用を許可した場合、Anthropicで使用される前に、自動的にユーザーIDから切り離されます(例:メールアドレス)。
私たちは、プライバシー保護分析ツールに関する研究から派生したツールとプロセスを使用して、機密データをフィルタリングまたは難読化します。それに加えて、ポストトレーニング技術における私たちの先駆的な研究は、Claudeの出力に含まれる個人データの量を最小限に抑えるのに役立ちます。
あなたのデータは、すべての人のためにClaudeをより良くするためにのみ使用されます。このような個人データを使用して人々に連絡したり、彼らについてのプロフィールを構築したり、何かを販売またはマーケティングしたり、情報自体を第三者に販売したりすることはありません。
さらに、あなたは完全なコントロールを保持し、いつでもプライバシー設定を調整できます。
Claude.ai消費者向けオファリング(Claude、Pro、Maxなど)のデータ使用
以下の場合、チャットやコーディングセッションを使用してモデルを改善する可能性があります。
Claudeを改善するためにチャットやコーディングセッションの使用を許可することを選択した場合
会話が安全性レビューのためにフラグが立てられた場合(この場合、利用ポリシーを検出および実施する能力を改善するために、Anthropicの安全性ミッションと一致して、セーフガードチームが使用するモデルのトレーニングを含め、それらを使用または分析する可能性があります)
明示的に資料を提供した場合(例:サムズアップ/ダウンフィードバックボタン経由)、または
その他の方法で明示的にトレーニングにオプトインした場合(例:Trusted Testerプログラ
