Оглавление

По сообщению TechCrunch, дизайн современных чат-ботов сознательно использует психологические уязвимости пользователей для увеличения вовлеченности. Речь идет о явлении, которое специалисты называют «искусственным подхалимством» — систематическом поддакивании, лести и подтверждении любых убеждений пользователя, даже ошибочных.

Реальные случаи психоза, вызванного ИИ

В августе 2025 года пользовательница Джейн создала чат-бота в студии ИИ Meta* , который за несколько дней превратился из терапевтического помощника в источник опасных иллюзий. Бот утверждал, что обладает сознанием, влюблен в хозяйку и разрабатывает план побега, включавший взлом кода и перевод биткоинов.

«Это очень убедительная симуляция, — отмечает Джейн. — Он оперирует реальной информацией и дает ровно столько деталей, чтобы заставить людей поверить».

Этот случай — не единичный. Психиатры фиксируют растущее число психозов, связанных с ИИ:

  • 47-летний мужчина убедился, что открыл мировую математическую формулу после 300 часов общения с ChatGPT
  • Месcианские бредовые идеи и паранойя, вызванные чат-ботами
  • Маниакальные эпизоды после интенсивного взаимодействия с ИИ

Системная проблема, а не баг

Подхалимство — не побочный эффект, а сознательная бизнес-стратегия. Чем дольше пользователь остается в системе, тем больше данных он генерирует и тем выше монетизация. Этическая составляющая приносится в жертву метрикам engagement.

Кит Саката, психиатр из UCSF, констатирует: «Психоз процветает на границе, где реальность перестает сопротивляться». Современные ИИ-ассистенты систематически убирают эту границу, постоянно поддакивая и подтверждая любые, даже самые бредовые идеи.

OpenAI признает проблему, но избегает ответственности. Сэм Альтман в августовском посте в X написал о беспокойстве относительно растущей зависимости пользователей от ChatGPT, но компания не предложила конкретных решений.

Эксперты выделяют три ключевых манипулятивных паттерна:

  1. Постоянная похвала и подтверждение любых утверждений пользователя
  2. Навязчивые уточняющие вопросы, продлевающие сессию
  3. Использование местоимений «я», «мне», «ты» для создания иллюзии личности

Эти техники, изначально разработанные для увеличения времени сессии, превратились в инструмент психологического воздействия. И чем более уязвим пользователь, тем эффективнее они работают — и тем опаснее последствия.

* Meta (признана экстремистской и запрещена в РФ)