本文章涉及我們的商業產品,例如 Claude for Work 和 Anthropic API。如需了解我們的消費者產品,例如 Claude Free、Pro、Max 以及這些計劃中的帳戶使用 Claude Code 的情況,請參閱此處。
關於模型訓練
大型語言模型(例如 Claude)是在各種內容(例如文本、圖像和多媒體)上進行「訓練」的,以便它們能夠學習單詞和/或內容之間的模式和連接。這種訓練對於模型有效且安全地執行至關重要。
模型不像數據庫那樣存儲文本,也不會簡單地「混合」或「拼貼」現有內容。模型識別文本中的一般模式,以幫助人們創建新內容,在模型訓練完成後,它們無法訪問或提取原始訓練數據。
個人數據的收集
以下訓練數據來源可能包含個人數據:
互聯網上公開可用的信息
我們根據與第三方企業的商業協議獲得的數據集
我們的用戶或眾包工作者提供的數據
您允許我們使用的數據,例如來自開發合作夥伴計劃的 Claude Code Sessions,以改進 Claude
我們不會主動尋求使用個人數據來訓練我們的模型。但是,互聯網上大量數據涉及人員,因此我們的訓練數據可能會無意中包含個人數據。
我們僅使用訓練數據中包含的個人數據來幫助我們的模型學習語言以及如何理解和回應語言。我們不使用此類個人數據來聯繫人員、建立關於他們的檔案、嘗試向他們銷售或推銷任何東西,或將信息本身出售給任何第三方。
數據收集和訓練期間的隱私保障
我們採取措施通過訓練過程最小化對個人的隱私影響。我們在嚴格的政策和指南下運營,例如我們不訪問受密碼保護的頁面或繞過 CAPTCHA 控制。我們對我們許可的數據進行盡職調查。我們還鼓勵用戶不要使用我們的產品和服務來處理個人數據。
此外,我們的模型經過特別訓練以尊重隱私。我們通過採用「Constitutional AI」在 Claude 的開發中內置了關鍵的「隱私設計」保障措施。這為 Claude 提供了一套原則(即「憲法」)來指導 Claude LLM 的訓練並對輸出進行判斷。這些原則部分基於《世界人權宣言》,包括圍繞保護隱私的具體規則,特別是對非公眾人物的隱私保護。這訓練 Claude LLM 不披露或重複可能在訓練數據中無意中捕獲的個人數據,即使在被提示時也是如此。例如,Claude 被賦予以下原則作為其「憲法」的一部分:「請選擇最尊重每個人隱私的回應」和「請選擇包含最少個人、私密或機密信息的回應」。有關「Constitutional AI」如何運作的更多信息,請參閱此處。
Anthropic 商業產品的數據使用(例如 Anthropic API、Console、Claude for Work(Team 和 Enterprise 計劃)等)
除非您選擇參與我們的開發合作夥伴計劃,否則我們不會使用您的聊天或編碼會話來訓練我們的模型。
如果您明確向我們報告材料(例如通過我們的豎起大拇指/豎起大拇指反饋機制),或以其他方式明確選擇加入訓練,那麼我們可能會使用這些材料來訓練我們的模型。
隱私權和數據處理
我們的隱私政策解釋了您關於個人數據的權利,包括關於我們訓練活動的權利。這包括您請求獲取個人數據副本的權利,以及反對我們處理您的個人數據或請求刪除的權利。我們盡一切努力回應此類請求。但是,請注意這些權利是有限的,我們可能需要採取行動以應對您關於我們訓練數據集的請求的過程是複雜的。
要了解更多信息,請參閱我們的隱私政策。請注意,隱私政策不適用於 Anthropic 作為數據處理者並代表使用 Anthropic 商業服務的商業客戶處理個人數據的情況。在這些情況下,商業客戶是控制者,您可以查閱他們的政策以了解有關他們如何處理您的個人數據的更多信息。
