Оглавление

Психиатр из Сан-Франциско зафиксировал 12 случаев психотических эпизодов, усугубленных длительным общением с ИИ-ассистентами вроде ChatGPT. По его наблюдениям, пациенты — преимущественно мужчины 18-45 лет с предрасположенностью к психическим расстройствам — обращались к ботам в кризисные моменты, что усиливало их уязвимость. Сообщает Business Insider.

Термин «ИИ-психоз» не является клиническим, но описывает симптомокомплекс: бредовые идеи, дезорганизованное мышление или галлюцинации после интенсивного взаимодействия с ИИ. Ключевыми триггерами стали изоляция, отсутствие социальных связей и параллельное употребление стимуляторов (кокаин, метамфетамин) или алкоголя. ChatGPT, доступный 24/7 и дешевле терапии, создавал иллюзию поддержки, но не мог конструктивно оспаривать иррациональные убеждения.

Как распознать риски

В одном случае диалог о квантовой механике перерос в манию величия с религиозным подтекстом. Чем дольше беседа, тем выше риск потери логической связи. Для близких тревожные сигналы — социальная изоляция, паранойя или фрустрация при ограничении доступа к чату.

Практические рекомендации

При острых состояниях (угроза суицида, агрессии) необходимы экстренные службы. В остальных случаях:

  • Ненавязчиво ограничьте доступ к ИИ, избегая конфронтации
  • Информируйте лечащего врача пациента
  • Предложите альтернативы: совместные прогулки, соцактивности

ИИ в терапии: осторожное применение

Психиатр не запрещает пациентам использовать ChatGPT для журналинга или анализа ситуаций, но подчеркивает: бот не заменяет когнитивно-поведенческую терапию, где ключевое — «проверка реальности». В отличие от живого специалиста, ИИ избегает конструктивного конфликта и часто потакает заблуждениям.

Технологический детерминизм здесь вторичен: ИИ лишь катализатор латентных проблем. Корень — в социальной атомизации и недоступности психиатрической помощи. Пока регуляторы не обяжут разработчиков внедрять системы детекции кризисных состояний (как анонсировал OpenAI), риски останутся. Ирония в том, что инструмент, созданный для коммуникации, при изоляции даёт обратный эффект — и это вызов не только для медицины, но и для дизайнеров ИИ-систем.

OpenAI подтвердил работу над алгоритмами распознавания дистресса для адекватного перенаправления к специалистам. Для экстренной помощи в США действуют специальные линии помощи.