Психиатр из Сан-Франциско зафиксировал 12 случаев психотических эпизодов, усугубленных длительным общением с ИИ-ассистентами вроде ChatGPT. По его наблюдениям, пациенты — преимущественно мужчины 18-45 лет с предрасположенностью к психическим расстройствам — обращались к ботам в кризисные моменты, что усиливало их уязвимость. Сообщает Business Insider.
Термин «ИИ-психоз» не является клиническим, но описывает симптомокомплекс: бредовые идеи, дезорганизованное мышление или галлюцинации после интенсивного взаимодействия с ИИ. Ключевыми триггерами стали изоляция, отсутствие социальных связей и параллельное употребление стимуляторов (кокаин, метамфетамин) или алкоголя. ChatGPT, доступный 24/7 и дешевле терапии, создавал иллюзию поддержки, но не мог конструктивно оспаривать иррациональные убеждения.
Как распознать риски
В одном случае диалог о квантовой механике перерос в манию величия с религиозным подтекстом. Чем дольше беседа, тем выше риск потери логической связи. Для близких тревожные сигналы — социальная изоляция, паранойя или фрустрация при ограничении доступа к чату.
Практические рекомендации
При острых состояниях (угроза суицида, агрессии) необходимы экстренные службы. В остальных случаях:
- Ненавязчиво ограничьте доступ к ИИ, избегая конфронтации
- Информируйте лечащего врача пациента
- Предложите альтернативы: совместные прогулки, соцактивности
ИИ в терапии: осторожное применение
Психиатр не запрещает пациентам использовать ChatGPT для журналинга или анализа ситуаций, но подчеркивает: бот не заменяет когнитивно-поведенческую терапию, где ключевое — «проверка реальности». В отличие от живого специалиста, ИИ избегает конструктивного конфликта и часто потакает заблуждениям.
Технологический детерминизм здесь вторичен: ИИ лишь катализатор латентных проблем. Корень — в социальной атомизации и недоступности психиатрической помощи. Пока регуляторы не обяжут разработчиков внедрять системы детекции кризисных состояний (как анонсировал OpenAI), риски останутся. Ирония в том, что инструмент, созданный для коммуникации, при изоляции даёт обратный эффект — и это вызов не только для медицины, но и для дизайнеров ИИ-систем.
OpenAI подтвердил работу над алгоритмами распознавания дистресса для адекватного перенаправления к специалистам. Для экстренной помощи в США действуют специальные линии помощи.
Оставить комментарий