Anthropic effectue une analyse agrégée et préservant la confidentialité des données pour obtenir des informations sur les impacts réels des systèmes d'IA et les modèles d'utilisation de nos produits, tout en maintenant rigoureusement la confidentialité des utilisateurs et la confidentialité des informations sensibles. Un exemple de notre approche est Clio, un système qui nous permet de comprendre les tendances et comportements importants sans compromettre la confidentialité individuelle ou la confidentialité des clients.
Lorsque nous utilisons Clio à des fins de recherche ou pour analyser la façon dont nos produits sont utilisés de manière agrégée, le système :
Anonymise et agrège automatiquement les informations, en extrayant uniquement les modèles et tendances généraux tout en omettant les détails privés ou sensibles
Applique plusieurs mesures de protection de la confidentialité, y compris des seuils d'agrégation minimale et une vérification automatisée pour garantir que les résultats ne révèlent pas d'informations sur les individus ou les petits groupes de clients
Ne fournit aucun accès aux employés d'Anthropic aux conversations brutes des utilisateurs ou aux données spécifiques aux clients
Concentre tous les aperçus uniquement sur les modèles larges et agrégés, sans jamais analyser le comportement d'un individu ou d'un client spécifique
Nous avons mené des tests, des audits et des benchmarks approfondis pour valider que les résultats de Clio ne contiennent aucune information privée identifiable lorsqu'ils sont utilisés à ces fins. Pour des informations détaillées sur l'architecture de Clio et nos évaluations rigoureuses de la confidentialité, veuillez consulter notre article de recherche.
Pour faire progresser davantage notre mission, nous pouvons également partager des aperçus agrégés et préservant la confidentialité sur la façon dont nos systèmes d'IA sont utilisés avec des audiences externes ou avec le public. Clio met en œuvre des seuils d'agrégation prudents qui exigent que chaque aperçu représente une diversité significative d'utilisateurs et d'entrées, ce qui protège contre l'identification des modèles d'utilisation spécifiques d'un individu.
Comme décrit dans notre article de recherche, nous utilisons également une version différente de Clio pour améliorer nos systèmes de sécurité. Les résultats des exécutions de Clio axées sur la sécurité peuvent être liés aux comptes individuels. Nous avons mis en place des contrôles d'accès stricts pour limiter qui peut consulter ces résultats à un petit nombre de personnel autorisé.
