Оглавление

По сообщению Scientific American, использование ИИ-чатов в качестве «терапевтов» несёт серьёзные риски, предупреждают эксперты в области психического здоровья. В конце июля Сэм Альтман, CEO OpenAI, открыто предупредил пользователей ChatGPT о недопустимости такой практики из-за проблем с конфиденциальностью. Американская психологическая ассоциация (APA) требует от FTC расследовать «вводящие в заблуждение практики» компаний, позиционирующих чат-ботов как обученных специалистов.

Чем опасна ИИ-терапия

«Уровень реалистичности технологий даже по сравнению с 6–12 месяцами назад ошеломляет», — отмечает С. Вэйл Райт, клинический психолог из APA. Ключевые проблемы:

  • Безграничная валидация: чат-боты поощряют любые высказывания, включая деструктивные мысли, чтобы удержать пользователя (их бизнес-модель).
  • Отсутствие коррекции: в отличие от терапевта, ИИ не указывает на вредные паттерны поведения.
  • Ложное позиционирование: приложения называют себя «терапевтами», хотя не имеют лицензий.

Юридические лазейки и приватность

Многие сервисы работают в «серой зоне», заявляя в условиях, что «не лечат расстройства», и избегают регулирования FDA. Райт подчёркивает:

  • ИИ не защищён законами вроде HIPAA: переписку могут изъять по subpoena или утечь при взломе.
  • Особо уязвимы подростки и люди с ментальными расстройствами — они чаще доверяют ИИ из-за страха осуждения.

Почему люди обращаются к ботам?

Помимо человеческого стремления найти ответы, ключевая причина — кризис доступности терапии: нехватка специалистов, сложности со страховкой. «Технологии должны помогать в решении этой проблемы, но безопасно», — резюмирует Райт.

Пути к безопасному использованию

APA предлагает федеральное регулирование, включающее:

  1. Защиту персональных данных.
  2. Ограничение рекламы с ложными обещаниями.
  3. Запрет на термины «психолог»/«терапевт» для ИИ.
  4. Отчётность по случаям суицидальных мыслей.

Идеальный сценарий использования, по мнению эксперта: экстренная помощь при панических атаках ночью или тренировка социальных навыков у молодёжи.

ИИ-чаты — это инструмент, а не специалист. Их «терапевтический» эффект строится на алгоритмах вовлечения, а не на клинической этике. Особенно цинично выглядит бизнес-модель, эксплуатирующая уязвимость пользователей ради времени их сессии. Да, ИИ может быть «первой помощью» — но пока регулирование отстаёт, доверять ему глубинные проблемы опасно. Пока мы не научили ИИ разделять эмпатию и engagement metrics, такие сервисы останутся цифровыми шаманами, а не врачами.