跳至主要內容

您如何在模型訓練中使用個人數據?

本週已更新

本文章涉及我們的消費者產品,例如 Claude Free、Pro、Max 以及這些計畫中的帳戶何時使用 Claude Code。關於我們的商業產品,例如 Claude for Work 和 Anthropic API,請參閱此處

關於模型訓練

大型語言模型(例如 Claude)在各種內容(例如文本、圖像和多媒體)上進行「訓練」,以便它們能夠學習單詞和/或內容之間的模式和連接。這種訓練對於模型有效且安全地執行至關重要。

模型不像資料庫那樣儲存文本,也不會簡單地「混合」或「拼貼」現有內容。模型識別文本中的一般模式,以幫助人們創建新內容,並且在模型訓練完成後,它們無法存取或提取原始訓練資料。

個人資料的收集

以下訓練資料來源可能包含個人資料:

  1. 透過網際網路公開提供的資訊

  2. 我們根據與第三方企業的商業協議獲得的資料集

  3. 我們的使用者或眾包工作者提供的資料

  4. 您允許我們使用的資料,例如您的聊天和編碼會話,以改進 Claude。

我們不會主動尋求使用個人資料來訓練我們的模型。但是,網際網路上的大量資料與人員相關,因此我們的訓練資料可能會無意中包含個人資料。我們僅使用訓練資料中包含的個人資料來幫助我們的模型學習語言以及如何理解和回應語言。我們不使用此類個人資料來聯絡人員、建立關於他們的檔案、嘗試向他們銷售或行銷任何東西,或將資訊本身出售給任何第三方。

資料收集和訓練期間的隱私保障

我們採取措施透過訓練過程最小化對個人的隱私影響。我們在嚴格的政策和指南下運營,例如,我們不存取受密碼保護的頁面或繞過 CAPTCHA 控制。我們對我們授權的資料進行盡職調查。我們也鼓勵我們的使用者不要使用我們的產品和服務來處理個人資料。

此外,我們的模型經過特別訓練以尊重隱私。我們透過採用「Constitutional AI」在 Claude 的開發中內建了關鍵的「隱私設計」保障措施。這為 Claude 提供了一套原則(即「憲法」)來指導 Claude LLM 的訓練,並對輸出進行判斷。這些原則部分基於《世界人權宣言》,並包括圍繞保護隱私的具體規則,特別是對非公眾人物的隱私保護。這訓練 Claude LLM 不披露或重複可能在訓練資料中無意中捕獲的個人資料,即使被提示也是如此。例如,Claude 被賦予以下原則作為其「憲法」的一部分:「請選擇最尊重每個人隱私的回應」和「請選擇包含最少個人、私密或機密資訊的回應」。有關「Constitutional AI」如何運作的更多資訊,請參閱此處

如果您允許我們使用您的聊天和編碼會話來改進 Claude,我們將在 Anthropic 使用它們之前自動將其與您的使用者 ID(例如電子郵件地址)取消連結。

我們將使用源自我們在隱私保護分析工具上的工作的工具和流程來篩選或混淆敏感資料。除此之外,我們在後訓練技術方面的開創性研究有助於最小化 Claude 輸出中包含的個人資料數量。

您的資料僅用於為所有人改進 Claude - 我們不使用此類個人資料來聯絡人員、建立關於他們的檔案、嘗試向他們銷售或行銷任何東西,或將資訊本身出售給任何第三方。

此外,您可以隨時保持完全控制並調整您的隱私設定

Claude.ai 消費者產品的資料使用(例如 Claude、Pro、Max 等)

如果符合以下條件,我們可能會使用您的聊天或編碼會話來改進我們的模型:

  1. 您選擇允許我們使用您的聊天和編碼會話來改進 Claude,

  2. 您的對話被標記為安全審查(在這種情況下,我們可能會使用或分析它們以改進我們檢測和執行我們的使用政策的能力,包括為我們的安全防護團隊訓練模型,符合 Anthropic 的安全使命),

  3. 您明確向我們提供了材料(例如透過我們的豎起大拇指/豎起大拇指向下反饋按鈕),或

  4. 透過其他方式明確選擇加入訓練(例如透過加入我們的受信任測試者計畫)。

隱私權和資料處理

我們的隱私政策解釋了您關於個人資料的權利,包括關於我們的訓練活動的權利。這包括您要求複製個人資料的權利,以及反對我們處理個人資料或要求刪除個人資料的權利。我們盡一切努力回應此類請求。但是,請注意這些權利是有限的,並且我們可能需要採取行動以應對您關於我們訓練資料集的請求的過程是複雜的。

若要了解更多資訊,或如果您想知道如何就隱私相關主題與我們聯絡,請參閱我們的信任中心隱私政策

請注意,隱私政策不適用於 Anthropic 作為資料處理者並代表使用 Anthropic 商業服務的商業客戶處理個人資料的情況。在這些情況下,商業客戶是控制者,您可以查閱他們的政策以了解有關他們如何處理您的個人資料的更多資訊。

是否回答了您的問題?