跳至主要內容

我的資料會被用於模型訓練嗎?

一週前已更新

本文章涉及我們的消費者產品(例如 Claude Free、Pro、Max(以及使用這些帳戶時的 Claude Code))。關於我們的商業產品(例如 Claude for Work、Anthropic API 等),請參閱此處

在以下情況下,我們將使用您的聊天和編程會話(包括用於改進我們的模型):

  1. 您選擇允許我們使用您的聊天和編程會話來改進 Claude,了解更多請點此

  2. 您的對話被標記為安全審查(在這種情況下,我們可能會使用或分析它們來改進我們檢測和執行使用政策的能力,包括訓練供我們安全防護團隊使用的模型,這與 Anthropic 的安全使命一致)

  3. 通過其他方式明確選擇加入訓練(例如加入我們的可信測試者計劃)

我們可能用於改進模型的聊天和編程會話數據包括整個相關對話,以及任何內容、自定義樣式或對話偏好,以及使用Claude for Chrome時收集的數據。它不包括來自連接器(例如 Google Drive)的原始內容,包括遠程和本地 MCP 服務器,但如果數據直接複製到您與 Claude 的對話中,則可能包含該數據。

反饋

當您通過我們的讚/踩按鈕向我們提供反饋時,我們將在我們的安全後端存儲整個相關對話,包括任何內容、自定義樣式或對話偏好,最多保存 5 年。反饋數據不包括來自連接器(例如 Google Drive)的原始內容,包括遠程和本地 MCP 服務器,但如果數據直接複製到您與 Claude 的對話中,則可能包含該數據。

在 Anthropic 使用您的反饋之前,我們會將您的反饋與您的用戶 ID(例如電子郵件地址)解除關聯。我們可能會使用您的反饋來分析我們服務的有效性、進行研究、研究用戶行為,並在適用法律允許的範圍內訓練我們的 AI 模型。我們不會將您的反饋與您與 Claude 的其他對話合併。

以下是您使用讚/踩按鈕提供反饋報告時會看到的示例:

是否回答了您的問題?