Anthropic 对数据进行聚合的、隐私保护的分析,以深入了解 AI 系统的真实影响和我们产品的使用模式,同时严格维护用户隐私和敏感信息的机密性。我们方法的一个例子是 Clio,这是一个系统,使我们能够了解重要的趋势和行为,而不会损害个人隐私或客户机密性。
当我们将 Clio 用于研究目的或分析我们的产品如何被聚合使用时,该系统:
自动匿名化和聚合信息,仅提取一般模式和趋势,同时省略私人或敏感细节
应用多项隐私保障措施,包括最小聚合阈值和自动验证,以确保结果不会泄露有关个人或小群体客户的信息
不允许 Anthropic 员工访问原始用户对话或特定客户数据
仅关注广泛的聚合模式,从不分析任何特定个人或客户的行为
我们进行了广泛的测试、审计和基准测试,以验证 Clio 的输出在用于这些目的时不包含任何可识别的私人信息。有关 Clio 架构和我们严格隐私评估的详细信息,请参阅我们的 研究论文。
为了进一步推进我们的使命,我们也可能与外部受众或公众分享有关我们 AI 系统如何被使用的聚合的、隐私保护的见解。Clio 实施了仔细的聚合阈值,要求每项见解代表有意义的用户和输入多样性,这可以防止识别个人的特定使用模式。
如我们的 研究论文 中所述,我们还使用不同版本的 Clio 来改进我们的安全系统。以安全为重点的 Clio 运行的结果可以链接回个人账户。我们实施了严格的访问控制,以限制只有少数授权员工可以查看这些结果。
