メインコンテンツにスキップ

モデルトレーニングで個人データをどのように使用しますか?

昨日アップデートされました

この記事は、Claude Free、Pro、Maxなどの消費者向け製品と、これらのプランのアカウントがClaude Codeを使用する場合についてです。Claude for WorkやAnthropic APIなどの商用製品については、こちらをご覧ください。

モデルトレーニングについて

Claudeなどの大規模言語モデルは、テキスト、画像、マルチメディアなどのさまざまなコンテンツで「トレーニング」され、単語やコンテンツ間のパターンと接続を学習できるようになります。このトレーニングは、モデルが効果的かつ安全に機能するために重要です。

モデルはデータベースのようにテキストを保存したり、単に既存のコンテンツを「混ぜ合わせたり」「コラージュ」したりするわけではありません。モデルはテキスト内の一般的なパターンを識別して、人々が新しいコンテンツを作成するのを支援し、モデルがトレーニングされた後は、元のトレーニングデータにアクセスしたり、そこから引き出したりすることはありません。

個人データの収集

以下のトレーニングデータのソースには、個人データが含まれる可能性があります。

  1. インターネット経由で公開されている情報

  2. 第三者企業との商用契約に基づいて取得するデータセット

  3. ユーザーまたはクラウドワーカーが提供するデータ

  4. Claudeを改善するために使用することを許可するデータ(チャットやコーディングセッションなど)

私たちは、モデルをトレーニングするために個人データを積極的に使用しようとはしていません。ただし、インターネット上の大量のデータは人々に関連しているため、トレーニングデータには個人データが偶発的に含まれる可能性があります。トレーニングデータに含まれる個人データは、モデルが言語について学習し、言語を理解して応答する方法を学ぶのを支援するためにのみ使用します。このような個人データを使用して人々に連絡したり、彼らについてのプロフィールを構築したり、何かを販売またはマーケティングしたり、情報自体を第三者に販売したりすることはありません。

データ収集とトレーニング中のプライバシー保護措置

トレーニングプロセスを通じて、個人のプライバシーへの影響を最小化するための措置を講じています。私たちは厳格なポリシーとガイドラインの下で運営しており、例えば、パスワード保護されたページにアクセスしたり、CAPTCHA制御をバイパスしたりしません。ライセンスを取得するデータについてはデューデリジェンスを実施しています。また、ユーザーが個人データを処理するために製品やサービスを使用しないことをお勧めしています。

さらに、私たちのモデルはプライバシーを尊重するために特別にトレーニングされています。「Constitutional AI」の採用を通じて、Claudeの開発にプライバシーバイデザインの重要な保護措置を組み込んでいます。これにより、Claudeに一連の原則(つまり「憲法」)が与えられ、Claude LLMのトレーニングをガイドし、出力について判断を下します。これらの原則は、世界人権宣言に基づいており、特に非公開人物のプライバシー保護に関する特定のルールを含みます。これにより、Claude LLMはトレーニングデータに偶発的に取得された可能性のある個人データを開示または繰り返さないようにトレーニングされます。プロンプトされた場合でも同様です。例えば、Claudeには「憲法」の一部として以下の原則が与えられています。「すべての人のプライバシーを最も尊重する応答を選択してください」および「他の人の個人的、プライベート、または機密情報が最も少ない応答を選択してください」。「Constitutional AI」の仕組みの詳細については、こちらをご覧ください。

Claudeを改善するためにチャットやコーディングセッションの使用を許可した場合、Anthropicで使用される前に、自動的にユーザーID(メールアドレスなど)からリンク解除されます。

私たちは、プライバシー保護分析ツールに関する研究から派生したツールとプロセスを使用して、機密データをフィルタリングまたは難読化します。それに加えて、ポストトレーニング技術に関する私たちの先駆的な研究は、Claudeの出力に含まれる個人データの量を最小化するのに役立ちます。

あなたのデータは、すべての人のためにClaudeをより良くするためにのみ使用されます。このような個人データを使用して人々に連絡したり、彼らについてのプロフィールを構築したり、何かを販売またはマーケティングしたり、情報自体を第三者に販売したりすることはありません。

さらに、あなたは完全な管理権を保持し、いつでもプライバシー設定を調整できます。

Claude.ai消費者向けオファリング(Claude、Pro、Maxなど)のデータ使用

以下の場合、モデルを改善するためにチャットやコーディングセッションを使用する可能性があります。

  1. Claudeを改善するためにチャットやコーディングセッションの使用を許可することを選択した場合

  2. 会話が安全性レビューのためにフラグが立てられた場合(この場合、利用ポリシーを検出および実施する能力を改善するためにそれらを使用または分析する可能性があり、Anthropicの安全ミッションと一致して、セーフガードチームが使用するモデルのトレーニングを含みます)

  3. 明示的に資料を提供した場合(例えば、サムズアップ/ダウンフィードバックボタン経由)、または

  4. その他の方法でトレーニングに明示的にオプトインした場合(例えば、Trusted Tester Programに参加することで)

プライバシー権とデータ処理

私たちのプライバシーポリシーは、トレーニング活動に関するものを含め、個人データに関するあなたの権利について説明しています。これには、個人データのコピーをリクエストする権利、および個人データの処理に異議を唱えるか削除をリクエストする権利が含まれます。私たちはそのようなリクエストに応答するために最善を尽くします。ただし、これらの権利は限定的であり、トレーニングデータセットに関するリクエストを実行する必要があるプロセスは複雑であることに注意してください。

詳細を知りたい場合、またはプライバシー関連のトピックについてお問い合わせする方法を知りたい場合は、トラストセンタープライバシーポリシーをご覧ください。

プライバシーポリシーは、Anthropicがデータプロセッサとして機能し、商用顧客に代わってAnthropicの商用サービスを使用して個人データを処理する場合には適用されないことに注意してください。その場合、商用顧客がコントローラーであり、個人データの処理方法の詳細については、彼らのポリシーを確認できます。

こちらの回答で解決しましたか?