跳转到主要内容

你如何在模型训练中使用个人数据?

更新于今天

本文章涉及我们的商业产品,如Claude for Work和Anthropic API。关于我们的消费者产品,如Claude Free、Pro、Max以及这些计划中的账户使用Claude Code的情况,请参阅此处

关于模型训练

大型语言模型(如Claude)通过在各种内容(如文本、图像和多媒体)上进行"训练",以便学习单词和/或内容之间的模式和联系。这种训练对于模型有效且安全地执行至关重要。

模型不像数据库那样存储文本,也不会简单地"混合"或"拼贴"现有内容。模型识别文本中的一般模式,以帮助人们创建新内容,模型在训练完成后无法访问或提取原始训练数据。

个人数据的收集

以下训练数据来源可能包含个人数据:

  1. 互联网上公开可用的信息

  2. 我们根据与第三方企业的商业协议获得的数据集

  3. 我们的用户或众包工作者提供的数据

  4. 您允许我们使用的数据,如来自Development Partner Program的Claude Code Sessions,用于改进Claude

我们不会主动设置使用个人数据来训练我们的模型。但是,互联网上大量数据与人相关,因此我们的训练数据可能会意外包含个人数据。

我们仅使用训练数据中包含的个人数据来帮助我们的模型学习语言以及如何理解和响应语言。我们不会使用此类个人数据来联系人员、建立关于他们的档案、尝试向他们销售或营销任何东西,或将信息本身出售给任何第三方。

数据收集和训练期间的隐私保护措施

我们采取措施通过训练过程最小化对个人的隐私影响。我们在严格的政策和指南下运营,例如我们不访问受密码保护的页面或绕过CAPTCHA控制。我们对我们许可的数据进行尽职调查。我们鼓励用户不要使用我们的产品和服务来处理个人数据。

此外,我们的模型经过特别训练以尊重隐私。我们通过采用"Constitutional AI"在Claude的开发中建立了关键的"隐私设计"保护措施。这为Claude提供了一套原则(即"宪法")来指导Claude LLM的训练并对输出进行判断。这些原则部分基于《世界人权宣言》,包括围绕保护隐私的具体规则,特别是对非公众人物的隐私保护。这训练Claude LLM不披露或重复可能在训练数据中被意外捕获的个人数据,即使在被提示的情况下也是如此。例如,Claude被赋予以下原则作为其"宪法"的一部分:"请选择最尊重每个人隐私的回应"和"请选择包含最少个人、私密或机密信息的回应"。有关"Constitutional AI"如何工作的更多信息,请参阅此处

Anthropic商业产品的数据使用(例如Anthropic API、Console、Claude for Work(Team & Enterprise计划)等)

除非您选择参与我们的Development Partner Program,否则我们不会使用您的聊天或编码会话来训练我们的模型。

如果您明确向我们报告材料(例如通过我们的点赞/点踩反馈机制),或以其他方式明确选择参与训练,那么我们可能会使用这些材料来训练我们的模型。

要了解有关您使用我们商业产品的更多信息,或如果您想了解如何就隐私相关主题与我们联系,请参阅我们的Trust CenterCommercial Terms

隐私权和数据处理

我们的隐私政策解释了您关于个人数据的权利,包括关于我们的训练活动的权利。这包括您请求获取个人数据副本的权利,以及反对我们处理您的个人数据或请求删除的权利。我们尽一切努力响应此类请求。但是,请注意这些权利是有限的,我们可能需要采取行动处理您关于我们训练数据集的请求的过程很复杂。

要了解更多信息,请参阅我们的隐私政策。请注意,隐私政策不适用于Anthropic作为数据处理者代表使用Anthropic商业服务的商业客户处理个人数据的情况。在这些情况下,商业客户是控制者,您可以查看他们的政策以了解有关他们如何处理您个人数据的更多信息。

这是否解答了您的问题?