Anthropic 進行彙總的、隱私保護的數據分析,以深入了解 AI 系統的實際影響和我們產品的使用模式,同時嚴格維護用戶隱私和敏感信息的機密性。我們方法的一個例子是 Clio,這是一個系統,使我們能夠了解重要的趨勢和行為,而不會損害個人隱私或客戶機密性。
當我們使用 Clio 進行研究目的或分析我們的產品如何被彙總使用時,該系統:
自動匿名化和彙總信息,僅提取一般模式和趨勢,同時省略私人或敏感詳情
應用多項隱私保障措施,包括最小彙總閾值和自動驗證,以確保結果不會洩露有關個人或小型客戶群體的信息
不向 Anthropic 員工提供對原始用戶對話或客戶特定數據的訪問權限
將所有見解集中在廣泛的彙總模式上,絕不分析任何特定個人或客戶的行為
我們進行了廣泛的測試、審計和基準測試,以驗證 Clio 的輸出在用於這些目的時不包含任何可識別的私人信息。有關 Clio 架構和我們嚴格隱私評估的詳細信息,請參閱我們的 研究論文。
為了進一步推進我們的使命,我們也可能與外部受眾或公眾分享有關我們 AI 系統如何被使用的彙總的、隱私保護的見解。Clio 實施了仔細的彙總閾值,要求每項見解代表有意義的用戶和輸入多樣性,這可以防止識別個人的特定使用模式。
如我們的 研究論文 中所述,我們也使用不同版本的 Clio 來改進我們的安全系統。以安全為重點的 Clio 運行的結果可以追溯到個人帳戶。我們實施了嚴格的訪問控制,以限制誰可以查看這些結果,僅限於少數授權員工。
