Оглавление

Компания Anthropic объявила о значительных изменениях в пользовательском соглашении и политике конфиденциальности для своих потребительских продуктов. Теперь пользователи Claude Free, Pro и Max могут добровольно разрешить использование своих данных для улучшения языковой модели и усиления систем безопасности.

Модальное окно настроек использования данных для обучения в приложении Claude
Источник: www.anthropic.com

Что меняется для пользователей

Ключевое изменение — появление опционального согласия на использование данных чатов и сессий кодирования для обучения будущих версий Claude. Пользователи получают контроль над этим параметром через настройки приватности.

Обновления затрагивают три основных аспекта:

  • Возможность разрешить использование данных для улучшения безопасности и качества моделей
  • Увеличение срока хранения данных с 30 дней до 5 лет (при согласии на обучение)
  • Разделение настроек для новых и существующих чатов/сессий

Типичный ход для растущих ИИ-компаний: сначала привлекают пользователей бесплатным доступом, а потом просят «пожертвовать» данные для улучшения продукта. Пять лет хранения — щедрое предложение, особенно учитывая, что удаленные диалоги исключаются из обучения. Интересно, сколько пользователей действительно прочитают условия перед согласием.

Технические детали и исключения

Важно отметить, что изменения не касаются корпоративных продуктов:

  • Claude for Work (Team и Enterprise планы)
  • API-доступ через Amazon Bedrock и Google Cloud Vertex AI
  • Claude Gov и Claude for Education

Для защиты конфиденциальности Anthropic использует автоматизированные системы фильтрации и обфускации чувствительных данных, включая инструмент Clio.

Сроки и процесс перехода

Существующие пользователи должны принять решение до 28 сентября 2025 года. Новые пользователи выбирают настройку при регистрации. Изменения применяются только к новым или возобновленным чатам и сессиям кодирования.

Anthropic объясняет расширенный срок хранения данных необходимостью поддержки многолетних циклов разработки ИИ-моделей и улучшения систем обнаружения вредоносного использования.