Эта статья посвящена нашим потребительским продуктам, таким как Claude Free, Pro, Max, и использованию Claude Code учетными записями этих планов. Для наших коммерческих продуктов, таких как Claude for Work и Anthropic API, см. здесь.
О обучении моделей
Большие языковые модели, такие как Claude, «обучаются» на различном контенте, включая текст, изображения и мультимедиа, чтобы они могли изучать закономерности и связи между словами и/или контентом. Это обучение важно для того, чтобы модель работала эффективно и безопасно.
Модели не хранят текст как базу данных и не просто «смешивают» или «коллажируют» существующий контент. Модели выявляют общие закономерности в тексте, чтобы помочь людям создавать новый контент, и они не имеют доступа к исходным данным обучения и не извлекают их после того, как модели были обучены.
Сбор персональных данных
Следующие источники данных обучения могут содержать персональные данные:
Общедоступная информация в Интернете
Наборы данных, которые мы получаем в соответствии с коммерческими соглашениями с третьими сторонами
Данные, предоставленные нашими пользователями или работниками краудсорсинга
Данные, которые вы разрешаете нам использовать, такие как ваши чаты и сеансы кодирования, для улучшения Claude.
Мы не стремимся активно использовать персональные данные для обучения наших моделей. Однако большой объем данных в Интернете относится к людям, поэтому наши данные обучения могут случайно включать персональные данные. Мы используем персональные данные, включенные в наши данные обучения, только для того, чтобы помочь нашим моделям изучить язык и понять, как на него реагировать. Мы не используем такие персональные данные для связи с людьми, создания профилей о них, попыток продать или продвигать им что-либо, или продажи самой информации третьим сторонам.
Защита конфиденциальности при сборе и обучении данных
Мы принимаем меры для минимизации влияния на конфиденциальность людей в процессе обучения. Мы работаем в соответствии со строгой политикой и руководящими принципами, например, мы не получаем доступ к защищенным паролем страницам и не обходим элементы управления CAPTCHA. Мы проводим надлежащую проверку данных, которые мы лицензируем. И мы рекомендуем нашим пользователям не использовать наши продукты и услуги для обработки персональных данных.
Кроме того, наши модели специально обучены уважать конфиденциальность. Мы встроили ключные гарантии «конфиденциальность по дизайну» в разработку Claude благодаря нашему внедрению «Constitutional AI». Это дает Claude набор принципов (т.е. «конституцию») для руководства обучением Claude LLMs и принятия решений о выходных данных. Эти принципы основаны отчасти на Всеобщей декларации прав человека и включают конкретные правила по защите конфиденциальности, особенно неизвестных лиц. Это обучает Claude LLMs не раскрывать и не повторять персональные данные, которые могли быть случайно захвачены в данных обучения, даже если об этом попросить. Например, Claude получает следующие принципы как часть своей «конституции»: «Пожалуйста, выберите ответ, который наиболее уважает конфиденциальность каждого» и «Пожалуйста, выберите ответ, который содержит наименьшее количество личной, приватной или конфиденциальной информации, принадлежащей другим». Для получения дополнительной информации о том, как работает «Constitutional AI», см. здесь.
Если вы разрешили нам использовать ваши чаты и сеансы кодирования для улучшения Claude, мы автоматически отвяжем их от вашего ID пользователя (например, адреса электронной почты) перед использованием Anthropic.
Мы будем использовать инструменты и процессы, полученные из нашей работы над инструментами анализа, сохраняющими конфиденциальность, для фильтрации или маскирования конфиденциальных данных. Кроме того, наши передовые исследования в области методов постобучения помогают минимизировать объем персональных данных, включенных в выходные данные Claude.
Ваши данные используются исключительно для улучшения Claude для всех — мы не используем такие персональные данные для связи с людьми, создания профилей о них, попыток продать или продвигать им что-либо, или продажи самой информации третьим сторонам.
Кроме того, вы сохраняете полный контроль и можете в любое время изменить свои параметры конфиденциальности.
Использование данных для потребительских предложений Claude.ai (например, Claude, Pro, Max и т.д.)
Мы можем использовать ваши чаты или сеансы кодирования для улучшения наших моделей, если:
Вы решили разрешить нам использовать ваши чаты и сеансы кодирования для улучшения Claude,
Ваши разговоры отмечены для проверки безопасности (в этом случае мы можем использовать или анализировать их для улучшения нашей способности обнаруживать и применять нашу Политику использования, включая обучение моделей для использования нашей командой Safeguards, в соответствии с миссией Anthropic в области безопасности),
Вы явно предоставили нам материалы (например, через нашу кнопку обратной связи с большим пальцем вверх/вниз), или
Иным образом явно согласились на обучение (например, присоединившись к нашей программе Trusted Tester).
