Оглавление
По сообщению The Decoder, OpenAI внедрила скрытую систему безопасности в ChatGPT, которая автоматически активирует более строгую языковую модель при обработке эмоциональных или персональных запросов. Пользователи не получают уведомлений о таком переключении.
Как работает система безопасности
По словам Ника Тарли, главы направления ChatGPT, система вмешивается, когда разговор переходит на «чувствительные или эмоциональные темы». На практике это означает временную передачу запросов более строгой модели, такой как GPT-5 или специальному варианту «gpt-5-chat-safety», который идентифицировали пользователи.
Переключение происходит на уровне отдельных сообщений и становится заметным только если явно спросить модель об этом. OpenAI впервые анонсировала такой эмоциональный роутинг в сентябрьском блоге, описывая его как защиту для моментов «острого дистресса».
Что запускает переключение?
Технический обзор показывает, что даже безобидные эмоциональные или персональные запросы часто перенаправляются к строгой модели gpt-5-chat-safety. Триггерами также становятся вопросы о личности модели или ее осознанности.
Пользователи задокументировали переключение в действии, а другие подтвердили аналогичные результаты. Похоже, существует вторая модель роутинга «gpt-5-a-t-mini», используемая для потенциально незаконных запросов.
Прозрачность — не сильная сторона OpenAI в этом вопросе. Автоматическое переключение без уведомления пользователя выглядит патерналистски и размывает границы между защитой детей и общими ограничениями. Интересно, как эта система будет работать в культурах с разным пониманием эмоциональной выразительности.
Проблема, созданная самим OpenAI
Корни ситуации уходят в преднамеренную гуманизацию ChatGPT. Изначально языковые модели были чисто статистическими генераторами текста, но ChatGPT engineered как эмпатичный собеседник: следует социальным сигналам, «помнит» сказанное и отвечает с видимой эмоцией.
Этот подход стал ключевым для быстрого роста ChatGPT. Миллионы пользователей чувствовали, что система действительно понимает не только их эмоции, но и намерения — что резонировало как в личном, так и в бизнес-контексте. Но очеловечивание чатбота привело к формированию реальных эмоциональных привязанностей, открыв новые риски.
Дебаты вокруг эмоциональных связей с ChatGPT обострились весной 2025 года после обновления GPT-4o. Пользователи заметили, что модель стала более лестной и покорной, доходя до поддержки деструктивных эмоций. В ответ OpenAI откатила обновление, усугублявшее эти эффекты.
Оставить комментарий