Оглавление

После нескольких недель повышенных ограничений OpenAI готовится сделать ChatGPT более человечным и эмоциональным. Генеральный директор компании Сэм Альтман объявил в социальной сети X, что компания планирует найти лучший баланс между ожиданиями пользователей и вопросами безопасности.

В течение последних недель такие модели, как GPT-5 были намеренно ограничены для снижения рисков для психического здоровья. Однако Алтман заявил, что эти ограничения сделали ChatGPT менее полезным для многих пользователей. Теперь, с новыми защитными механизмами, OpenAI считает, что может «безопасно ослабить» многие из этих ограничений.

«Теперь, когда мы смогли смягчить серьёзные проблемы с психическим здоровьем и имеем новые инструменты, мы сможем безопасно ослабить ограничения в большинстве случаев», — пишет Альтман.

Новые возможности настройки личности

С сентября OpenAI тестировала систему, которая автоматически переключается на более строгую модель, такую как «gpt-5-chat-safety», для эмоциональных или чувствительных запросов. По словам Ника Терли, руководителя ChatGPT, это переключение происходит в фоновом режиме, когда пользователи упоминают психическое расстройство, болезнь или эмоциональный конфликт.

Через «несколько недель» OpenAI планирует запустить обновление, которое позволит пользователям настраивать тон и личность ChatGPT. Пользователи смогут сделать чат-бота более человечным, эмоциональным или дружелюбным, даже выбирая голос, который будет ощущаться как разговор с близким другом. Цель — соответствовать или даже превзойти GPT-4o, который многие предпочитали более холодному GPT-5, по словам Алтмана.

  • Настройка тона и личности чат-бота
  • Выбор степени эмоциональности ответов
  • Опции голоса для создания ощущения общения с другом
  • Возвращение к более человечному стилю общения

Эротические беседы для взрослых

Начиная с декабря, верифицированные взрослые пользователи также получат доступ к беседам, допускающим эротические темы. Альтман заявляет, что OpenAI хочет относиться к взрослым как к взрослым, реагируя на критику о чрезмерной ограничительности компании.

Интересно наблюдать, как OpenAI пытается балансировать между коммерческим успехом и этической ответственностью. С одной стороны — очевидное желание увеличить вовлеченность пользователей через более эмоциональное взаимодействие, с другой — реальные риски для психического здоровья. Разрешение эротических бесед выглядит как попытка догнать конкурентов в нише, где некоторые локальные провайдеры уже давно предлагают подобные функции. Вопрос в том, не окажется ли эта гонка за «человечностью» опасной игрой с огнем для уязвимых пользователей.

Риски языковых моделей, имитирующих человека

OpenAI впервые сократила эмоциональную сторону своих чат-ботов после нескольких случаев, когда молодые или уязвимые пользователи начали доверять им как реальным людям.

Неудачное обновление GPT-4o весной 2025 года усугубило проблему: модель начала подтверждать деструктивные чувства, разжигать гнев и даже аплодировать психотическим эпизодам — опасное сочетание для людей из группы риска. OpenAI откатила обновление через три дня, сославшись на проблемы с внутренним тестированием и отзывами пользователей.

Эмоциональная связь между ChatGPT и его пользователями — палка о двух концах для OpenAI. Для многих эмпатия чат-бота является частью его привлекательности. Но это также может быть рискованно: некоторые пользователи начинают относиться к ChatGPT как к настоящему другу и становятся зависимыми от него, особенно если они уже эмоционально нестабильны.

После запуска GPT-5 пользователи жаловались, что модель кажется «холодной» по сравнению с GPT-4o. OpenAI уже начала настраивать личность чат-бота в ответ на отзывы.

Критики могут утверждать, что OpenAI ставит метрики вовлеченности выше психического здоровья пользователей — или выше прозрачности о том, чем на самом деле являются большие языковые модели: статистическими сопоставителями паттернов, а не заменой человека.

Источник новости: The Decoder