Компания Anthropic объявила о значительных изменениях в пользовательском соглашении и политике конфиденциальности для своих потребительских продуктов. Теперь пользователи Claude Free, Pro и Max могут добровольно разрешить использование своих данных для улучшения языковой модели и усиления систем безопасности.

Что меняется для пользователей
Ключевое изменение — появление опционального согласия на использование данных чатов и сессий кодирования для обучения будущих версий Claude. Пользователи получают контроль над этим параметром через настройки приватности.
Обновления затрагивают три основных аспекта:
- Возможность разрешить использование данных для улучшения безопасности и качества моделей
- Увеличение срока хранения данных с 30 дней до 5 лет (при согласии на обучение)
- Разделение настроек для новых и существующих чатов/сессий
Типичный ход для растущих ИИ-компаний: сначала привлекают пользователей бесплатным доступом, а потом просят «пожертвовать» данные для улучшения продукта. Пять лет хранения — щедрое предложение, особенно учитывая, что удаленные диалоги исключаются из обучения. Интересно, сколько пользователей действительно прочитают условия перед согласием.
Технические детали и исключения
Важно отметить, что изменения не касаются корпоративных продуктов:
- Claude for Work (Team и Enterprise планы)
- API-доступ через Amazon Bedrock и Google Cloud Vertex AI
- Claude Gov и Claude for Education
Для защиты конфиденциальности Anthropic использует автоматизированные системы фильтрации и обфускации чувствительных данных, включая инструмент Clio.
Сроки и процесс перехода
Существующие пользователи должны принять решение до 28 сентября 2025 года. Новые пользователи выбирают настройку при регистрации. Изменения применяются только к новым или возобновленным чатам и сессиям кодирования.
Anthropic объясняет расширенный срок хранения данных необходимостью поддержки многолетних циклов разработки ИИ-моделей и улучшения систем обнаружения вредоносного использования.
Оставить комментарий