Оглавление

Набирает популярность тревожная тенденция: близкие люди вместо обращения к профессиональному психологу советуют своим партнерам или родственникам использовать языковые модели вроде ChatGPT, Claude или Gemini в качестве персонального терапевта. Об этом сообщает Forbes.

Почему выбирают ИИ вместо человека

Ситуация обычно развивается по стандартному сценарию: человек проявляет признаки психического расстройства или дистресса, но отказывается от профессиональной помощи. На это есть веские причины:

  • Высокая стоимость услуг квалифицированного терапевта
  • Сложности с поиском и организацией сеансов
  • Социальная стигма, хотя и ослабевающая в последние годы
  • Нежелание открываться незнакомому человеку

На этом фоне ИИ выглядит привлекательной альтернативой: доступность 24/7, мгновенное подключение без бюрократии, анонимность и отсутствие осуждения.

Технические преимущества и скрытые риски

Современные языковые модели действительно демонстрируют впечатляющие возможности в поддержании диалога и эмпатическом реагировании. Однако за кажущейся простотой скрываются серьезные проблемы:

  1. Разница между специализированными терапевтическими приложениями и универсальными ИИ вроде ChatGPT принципиальна
  2. Качество «терапии» критически зависит от формулировок промптов
  3. Риск некорректных диагнозов и опасных советов остается высоким

Рекомендовать ИИ вместо профессионального психолога — все равно что советовать погуглить симптомы вместо визита к врачу. Да, это дешевле и доступнее, но последствия могут быть катастрофическими. Современные модели прекрасно имитируют эмпатию, но не обладают клиническим мышлением — они не отличают депрессию от плохого настроения, а паническую атаку от временного стресса.

Проблема конфиденциальности

Наиболее тревожный аспект часто упускается из виду: все личные откровения, доверенные ИИ, становятся материалом для обучения моделей. Крупные tech-компании открыто заявляют о возможности просмотра промптов своими сотрудниками и использования данных для дообучения систем.

Представьте: ваши самые сокровенные переживания, психиатрические симптомы и семейные тайны могут оказаться в тренировочных наборах данных следующей версии GPT.

Пока регуляторы только начинают осознавать масштаб проблемы — как в случае с недавним законом в Юте, пытающимся хоть как-то контролировать использование ИИ в ментальном здоровье.

Тренд на замену человеческого терапевта алгоритмом отражает растущее доверие к ИИ, но также демонстрирует опасную готовность жертвовать качеством помощи ради удобства и экономии. Технологии могут быть полезным дополнением к профессиональной терапии, но не ее заменой — по крайней мере, до тех пор пока ИИ не научится не просто подбирать слова утешения, а ставить клинические диагнозы и нести за них ответственность.