Anthropicは、AIシステムの実世界への影響とプロダクトの利用パターンについての洞察を得るために、データの集約的でプライバシーを保護する分析を実施しており、ユーザーのプライバシーと機密情報の機密性を厳密に維持しています。当社のアプローチの一例はClioで、個人のプライバシーや顧客の機密性を損なうことなく、重要なトレンドと行動を理解することを可能にするシステムです。
研究目的またはプロダクトの使用方法を集約的に分析するためにClioを使用する場合、このシステムは以下を実行します:
情報を自動的に匿名化および集約し、プライベートまたは機密の詳細を省略しながら、一般的なパターンとトレンドのみを抽出します
最小集約閾値と自動検証を含む複数のプライバシーセーフガードを適用し、結果が個人または小規模な顧客グループに関する情報を明かさないようにします
Anthropicの従業員が生のユーザー会話または顧客固有のデータにアクセスできないようにします
すべての洞察を広範な集約パターンのみに焦点を当て、特定の個人または顧客の行動を分析することはありません
Clioの出力がこれらの目的で使用される場合に識別可能なプライベート情報を含まないことを検証するために、広範なテスト、監査、およびベンチマーキングを実施しました。Clioのアーキテクチャと当社の厳密なプライバシー評価の詳細については、研究論文をご覧ください。
当社のミッションをさらに推進するために、AIシステムの使用方法に関する集約的でプライバシーを保護する洞察を外部の視聴者または一般に共有することもあります。Clioは、各洞察がユーザーとインプットの意味のある多様性を表すことを要求する慎重な集約閾値を実装しており、これは個人の特定の使用パターンの識別から保護します。
研究論文で説明されているように、当社はセーフティシステムを改善するためにClioの異なるバージョンも使用しています。セーフティ重視のClioの実行結果は、個別のアカウントにリンクバックできます。当社は、これらの結果を表示できるユーザーを少数の認可されたスタッフに制限するための厳密なアクセス制御を実施しています。
