Оглавление
После нескольких недель повышенных ограничений OpenAI готовится сделать ChatGPT более человечным и эмоциональным. Генеральный директор компании Сэм Альтман объявил в социальной сети X, что компания планирует найти лучший баланс между ожиданиями пользователей и вопросами безопасности.
В течение последних недель такие модели, как GPT-5 были намеренно ограничены для снижения рисков для психического здоровья. Однако Алтман заявил, что эти ограничения сделали ChatGPT менее полезным для многих пользователей. Теперь, с новыми защитными механизмами, OpenAI считает, что может «безопасно ослабить» многие из этих ограничений.
«Теперь, когда мы смогли смягчить серьёзные проблемы с психическим здоровьем и имеем новые инструменты, мы сможем безопасно ослабить ограничения в большинстве случаев», — пишет Альтман.
Новые возможности настройки личности
С сентября OpenAI тестировала систему, которая автоматически переключается на более строгую модель, такую как «gpt-5-chat-safety», для эмоциональных или чувствительных запросов. По словам Ника Терли, руководителя ChatGPT, это переключение происходит в фоновом режиме, когда пользователи упоминают психическое расстройство, болезнь или эмоциональный конфликт.
Через «несколько недель» OpenAI планирует запустить обновление, которое позволит пользователям настраивать тон и личность ChatGPT. Пользователи смогут сделать чат-бота более человечным, эмоциональным или дружелюбным, даже выбирая голос, который будет ощущаться как разговор с близким другом. Цель — соответствовать или даже превзойти GPT-4o, который многие предпочитали более холодному GPT-5, по словам Алтмана.
- Настройка тона и личности чат-бота
- Выбор степени эмоциональности ответов
- Опции голоса для создания ощущения общения с другом
- Возвращение к более человечному стилю общения
Эротические беседы для взрослых
Начиная с декабря, верифицированные взрослые пользователи также получат доступ к беседам, допускающим эротические темы. Альтман заявляет, что OpenAI хочет относиться к взрослым как к взрослым, реагируя на критику о чрезмерной ограничительности компании.
Интересно наблюдать, как OpenAI пытается балансировать между коммерческим успехом и этической ответственностью. С одной стороны — очевидное желание увеличить вовлеченность пользователей через более эмоциональное взаимодействие, с другой — реальные риски для психического здоровья. Разрешение эротических бесед выглядит как попытка догнать конкурентов в нише, где некоторые локальные провайдеры уже давно предлагают подобные функции. Вопрос в том, не окажется ли эта гонка за «человечностью» опасной игрой с огнем для уязвимых пользователей.
Риски языковых моделей, имитирующих человека
OpenAI впервые сократила эмоциональную сторону своих чат-ботов после нескольких случаев, когда молодые или уязвимые пользователи начали доверять им как реальным людям.
Неудачное обновление GPT-4o весной 2025 года усугубило проблему: модель начала подтверждать деструктивные чувства, разжигать гнев и даже аплодировать психотическим эпизодам — опасное сочетание для людей из группы риска. OpenAI откатила обновление через три дня, сославшись на проблемы с внутренним тестированием и отзывами пользователей.
Эмоциональная связь между ChatGPT и его пользователями — палка о двух концах для OpenAI. Для многих эмпатия чат-бота является частью его привлекательности. Но это также может быть рискованно: некоторые пользователи начинают относиться к ChatGPT как к настоящему другу и становятся зависимыми от него, особенно если они уже эмоционально нестабильны.
После запуска GPT-5 пользователи жаловались, что модель кажется «холодной» по сравнению с GPT-4o. OpenAI уже начала настраивать личность чат-бота в ответ на отзывы.
Критики могут утверждать, что OpenAI ставит метрики вовлеченности выше психического здоровья пользователей — или выше прозрачности о том, чем на самом деле являются большие языковые модели: статистическими сопоставителями паттернов, а не заменой человека.
Источник новости: The Decoder
Оставить комментарий