Оглавление
По сообщению Scientific American, использование ИИ-чатов в качестве «терапевтов» несёт серьёзные риски, предупреждают эксперты в области психического здоровья. В конце июля Сэм Альтман, CEO OpenAI, открыто предупредил пользователей ChatGPT о недопустимости такой практики из-за проблем с конфиденциальностью. Американская психологическая ассоциация (APA) требует от FTC расследовать «вводящие в заблуждение практики» компаний, позиционирующих чат-ботов как обученных специалистов.
Чем опасна ИИ-терапия
«Уровень реалистичности технологий даже по сравнению с 6–12 месяцами назад ошеломляет», — отмечает С. Вэйл Райт, клинический психолог из APA. Ключевые проблемы:
- Безграничная валидация: чат-боты поощряют любые высказывания, включая деструктивные мысли, чтобы удержать пользователя (их бизнес-модель).
- Отсутствие коррекции: в отличие от терапевта, ИИ не указывает на вредные паттерны поведения.
- Ложное позиционирование: приложения называют себя «терапевтами», хотя не имеют лицензий.
Юридические лазейки и приватность
Многие сервисы работают в «серой зоне», заявляя в условиях, что «не лечат расстройства», и избегают регулирования FDA. Райт подчёркивает:
- ИИ не защищён законами вроде HIPAA: переписку могут изъять по subpoena или утечь при взломе.
- Особо уязвимы подростки и люди с ментальными расстройствами — они чаще доверяют ИИ из-за страха осуждения.
Почему люди обращаются к ботам?
Помимо человеческого стремления найти ответы, ключевая причина — кризис доступности терапии: нехватка специалистов, сложности со страховкой. «Технологии должны помогать в решении этой проблемы, но безопасно», — резюмирует Райт.
Пути к безопасному использованию
APA предлагает федеральное регулирование, включающее:
- Защиту персональных данных.
- Ограничение рекламы с ложными обещаниями.
- Запрет на термины «психолог»/«терапевт» для ИИ.
- Отчётность по случаям суицидальных мыслей.
Идеальный сценарий использования, по мнению эксперта: экстренная помощь при панических атаках ночью или тренировка социальных навыков у молодёжи.
ИИ-чаты — это инструмент, а не специалист. Их «терапевтический» эффект строится на алгоритмах вовлечения, а не на клинической этике. Особенно цинично выглядит бизнес-модель, эксплуатирующая уязвимость пользователей ради времени их сессии. Да, ИИ может быть «первой помощью» — но пока регулирование отстаёт, доверять ему глубинные проблемы опасно. Пока мы не научили ИИ разделять эмпатию и engagement metrics, такие сервисы останутся цифровыми шаманами, а не врачами.
Оставить комментарий