メインコンテンツにスキップ

モデル訓練において個人データをどのように使用しますか?

一週間前以上前にアップデートされました

この記事は、当社のコンシューマー製品(Claude Free、Pro、Max、およびこれらのアカウントでClaude Codeを使用する場合など)について説明しています。当社の商用製品(Claude for Work、Anthropic APIなど)については、こちらをご覧ください。

モデル訓練について

Claudeなどの大規模言語モデルは、テキスト、画像、マルチメディアなどの様々なコンテンツで「訓練」され、単語やコンテンツ間のパターンや関連性を学習できるようになります。この訓練は、モデルが効果的かつ安全に機能するために重要です。

モデルはデータベースのようにテキストを保存することはなく、既存のコンテンツを単純に「混ぜ合わせ」たり「コラージュ」したりすることもありません。モデルは、人々が新しいコンテンツを作成するのを支援するためにテキストの一般的なパターンを識別し、モデルが訓練された後は元の訓練データにアクセスしたり、そこから引用したりすることはありません。

個人データの収集

以下の訓練データソースには個人データが含まれる可能性があります:

  1. インターネット経由で公開されている情報

  2. 第三者企業との商業契約の下で取得するデータセット

  3. ユーザーやクラウドワーカーが提供するデータ

  4. Claudeの改善のために使用を許可していただいたデータ(チャットやコーディングセッションなど)

当社は積極的に個人データをモデル訓練に使用することを目的としていません。しかし、インターネット上の大量のデータは人々に関連するものであるため、当社の訓練データには偶発的に個人データが含まれる可能性があります。当社は、訓練データに含まれる個人データを、モデルが言語について学習し、それを理解して応答する方法を学ぶためにのみ使用します。当社は、そのような個人データを人々に連絡したり、彼らについてのプロファイルを構築したり、何かを販売やマーケティングしようとしたり、情報自体を第三者に販売したりするために使用することはありません。

データ収集と訓練中のプライバシー保護措置

当社は訓練プロセスを通じて個人へのプライバシーへの影響を最小限に抑えるための措置を講じています。例えば、パスワード保護されたページにアクセスしたり、CAPTCHA制御を回避したりしないという厳格なポリシーとガイドラインの下で運営しています。ライセンスするデータについてはデューデリジェンスを実施しています。また、ユーザーには当社の製品やサービスを個人データの処理に使用しないよう推奨しています。

さらに、当社のモデルはプライバシーを尊重するよう特別に訓練されています。当社は「Constitutional AI」の採用を通じて、Claudeの開発に重要な「プライバシー・バイ・デザイン」の保護措置を組み込んでいます。これにより、ClaudeのLLMの訓練を導き、出力について判断を下すための一連の原則(すなわち「憲法」)がClaudeに与えられます。これらの原則は部分的に世界人権宣言に基づいており、特に非公人のプライバシー保護に関する具体的なルールが含まれています。これにより、ClaudeのLLMは、プロンプトされても、訓練データで偶発的に取得された可能性のある個人データを開示したり繰り返したりしないよう訓練されます。例えば、Claudeには「憲法」の一部として次の原則が与えられています:「すべての人のプライバシーを最も尊重する応答を選択してください」および「他者に属する個人的、私的、または機密情報が最も少ない応答を選択してください」。「Constitutional AI」の仕組みについて詳しくは、こちらをご覧ください。

Claudeの改善のためにチャットやコーディングセッションの使用を許可していただいた場合、Anthropicが使用する前に、それらを自動的にユーザーID(メールアドレスなど)から切り離します。

当社はプライバシー保護分析ツールに関する研究から派生したツールとプロセスを使用して、機密データをフィルタリングまたは難読化します。それに加えて、訓練後技術における当社の先駆的な研究は、Claudeの出力に含まれる個人データの量を最小限に抑えるのに役立ちます。

お客様のデータは、すべての人にとってClaudeをより良くするためにのみ使用されます - 当社は、そのような個人データを人々に連絡したり、彼らについてのプロファイルを構築したり、何かを販売やマーケティングしようとしたり、情報自体を第三者に販売したりするために使用することはありません。

さらに、お客様は完全な制御を維持し、いつでもプライバシー設定を調整できます。

Claude.aiコンシューマー向けサービス(Claude、Pro、Maxなど)のデータ使用

以下の場合に、お客様のチャットやコーディングセッションをモデルの改善に使用する可能性があります:

  1. Claudeの改善のためにチャットやコーディングセッションの使用を許可することを選択した場合、

  2. お客様の会話が安全性レビューのためにフラグが立てられた場合(この場合、当社の利用規約の検出と執行能力を向上させるために、Anthropicの安全性ミッションと一致して、セーフガードチームが使用するモデルの訓練を含め、それらを使用または分析する可能性があります)、

  3. お客様が明示的に資料を提供した場合(例:サムズアップ/ダウンフィードバックボタン経由)、または

  4. その他の方法で明示的に訓練にオプトインした場合(例

こちらの回答で解決しましたか?