Anthropicは、AIシステムの実世界への影響とプロダクトの利用パターンについての洞察を得るために、データの集約的でプライバシーを保護する分析を実施しており、ユーザーのプライバシーと機密情報の機密性を厳密に維持しています。当社のアプローチの一例として、Clioがあります。これは個人のプライバシーや顧客の機密性を損なうことなく、重要なトレンドと行動を理解することを可能にするシステムです。
研究目的またはプロダクトの集約的な利用方法を分析するためにClioを使用する場合、このシステムは以下を実行します:
情報を自動的に匿名化および集約し、プライベートまたは機密の詳細を省略しながら、一般的なパターンとトレンドのみを抽出します
最小集約閾値と自動検証を含む複数のプライバシーセーフガードを適用し、結果が個人または小規模な顧客グループに関する情報を明かさないようにします
Anthropicの従業員が生のユーザー会話または顧客固有のデータにアクセスできないようにします
すべての洞察を広範な集約パターンのみに焦点を当て、特定の個人または顧客の行動を分析することはありません
Clioの出力がこれらの目的で使用される場合に識別可能なプライベート情報を含まないことを検証するために、広範なテスト、監査、およびベンチマーキングを実施しました。Clioのアーキテクチャと当社の厳密なプライバシー評価の詳細については、研究論文をご覧ください。
当社のミッションをさらに推進するために、AIシステムの利用方法に関する集約的でプライバシーを保護する洞察を外部の視聴者または一般に共有することもあります。Clioは慎重な集約閾値を実装しており、各洞察が意味のあるユーザーと入力の多様性を表すことを要求し、個人の特定の利用パターンの識別から保護します。
研究論文で説明されているように、当社は安全システムを改善するためにClioの異なるバージョンも使用しています。安全性に焦点を当てたClioの実行結果は、個別のアカウントにリンクバックできます。これらの結果を表示できるユーザーを少数の認可されたスタッフに制限するための厳密なアクセス制御を実施しています。
