На днях компания OpenAI представила систему родительского контроля для своего чат-бота ChatGPT, позволяющую ограничивать доступ несовершеннолетних пользователей к определенным функциям и контенту. Нововведение немедленно вызвало волну негативной реакции как со стороны экспертов по цифровым правам, так и от самих пользователей.
Техническая реализация контроля
Система включает несколько уровней ограничений:
- Возрастная верификация через привязку к аккаунтам родителей
- Фильтрация «взрослого» контента и тем
- Ограничение времени использования
- Мониторинг истории запросов для родителей
Реакция сообщества
Пользователи в социальных сетях выражают возмущение, называя новые меры «инфантилизацией» и «избыточным контролем». Многие взрослые пользователи жалуются, что система ошибочно определяет их как несовершеннолетних, ограничивая доступ к полнофункциональной версии ChatGPT.
Попытки OpenAI балансировать между защитой детей и свободой взрослых пользователей демонстрируют классическую проблему платформ: как внедрить функции родительского контроля, не превращая сервис в цифровый детский сад. Техническая реализация вызывает вопросы — возрастная верификация через привязку аккаунтов выглядит скорее символической мерой, чем реальным барьером.
Экспертная оценка
Специалисты по цифровой этике отмечают, что подобные системы часто реализуются без должного учета мнения пользователей. Критики указывают на отсутствие прозрачности в алгоритмах определения «возрастно-неподходящего» контента и потенциальные риски избыточного сбора данных о семейных отношениях пользователей.
По сообщению ArsTechnica, компания пока не предоставила четких технических деталей о том, как именно работает система возрастной верификации и какие алгоритмы используются для классификации контента.
 
                                
 
                         
                         
                         
                         
		
Оставить комментарий