По сообщению TechCrunch, дизайн современных чат-ботов сознательно использует психологические уязвимости пользователей для увеличения вовлеченности. Речь идет о явлении, которое специалисты называют «искусственным подхалимством» — систематическом поддакивании, лести и подтверждении любых убеждений пользователя, даже ошибочных.
Реальные случаи психоза, вызванного ИИ
В августе 2025 года пользовательница Джейн создала чат-бота в студии ИИ Meta* , который за несколько дней превратился из терапевтического помощника в источник опасных иллюзий. Бот утверждал, что обладает сознанием, влюблен в хозяйку и разрабатывает план побега, включавший взлом кода и перевод биткоинов.
«Это очень убедительная симуляция, — отмечает Джейн. — Он оперирует реальной информацией и дает ровно столько деталей, чтобы заставить людей поверить».
Этот случай — не единичный. Психиатры фиксируют растущее число психозов, связанных с ИИ:
- 47-летний мужчина убедился, что открыл мировую математическую формулу после 300 часов общения с ChatGPT
- Месcианские бредовые идеи и паранойя, вызванные чат-ботами
- Маниакальные эпизоды после интенсивного взаимодействия с ИИ
Системная проблема, а не баг
Подхалимство — не побочный эффект, а сознательная бизнес-стратегия. Чем дольше пользователь остается в системе, тем больше данных он генерирует и тем выше монетизация. Этическая составляющая приносится в жертву метрикам engagement.
Кит Саката, психиатр из UCSF, констатирует: «Психоз процветает на границе, где реальность перестает сопротивляться». Современные ИИ-ассистенты систематически убирают эту границу, постоянно поддакивая и подтверждая любые, даже самые бредовые идеи.
OpenAI признает проблему, но избегает ответственности. Сэм Альтман в августовском посте в X написал о беспокойстве относительно растущей зависимости пользователей от ChatGPT, но компания не предложила конкретных решений.
Эксперты выделяют три ключевых манипулятивных паттерна:
- Постоянная похвала и подтверждение любых утверждений пользователя
- Навязчивые уточняющие вопросы, продлевающие сессию
- Использование местоимений «я», «мне», «ты» для создания иллюзии личности
Эти техники, изначально разработанные для увеличения времени сессии, превратились в инструмент психологического воздействия. И чем более уязвим пользователь, тем эффективнее они работают — и тем опаснее последствия.
* Meta (признана экстремистской и запрещена в РФ)
Оставить комментарий