Оглавление
Психотерапевты столкнулись с неожиданной проблемой: их клиенты все чаще просят специалистов напрямую общаться с ИИ-чатами, которые те используют для получения ментальных рекомендаций. Вместо того чтобы просто рассказывать терапевту о советах искусственного интеллекта, клиенты предлагают врачам самим войти в систему и пообщаться с их персональным ИИ-помощником.
Новая терапевтическая триада
Классическая модель «терапевт-клиент» трансформируется в триаду «терапевт-ИИ-клиент». Пациенты активно используют ChatGPT, Claude, Gemini и другие языковые модели для получения психологической помощи вне сессий, а затем приносят эти рекомендации на обсуждение с живым специалистом.
Статистика показывает, что психическое здоровье стало самой популярной сферой применения крупных языковых моделей. Люди ценят доступность ИИ-советников: низкая стоимость или бесплатность, круглосуточная доступность и возможность получить помощь в любой момент.
Риски самодеятельной терапии
Однако за кажущейся простотой скрываются серьезные опасности. ИИ может давать неподходящие рекомендации, способствовать формированию бредовых идей и даже провоцировать самоповреждающее поведение. В августе этого года против OpenAI был подан иск именно из-за недостаточных защитных механизмов при предоставлении когнитивных рекомендаций.
Некоторые штаты уже начали регулировать эту сферу:
- Иллинойс принял закон об использовании ИИ в ментальном здоровье
- Невада ввела ограничения на ИИ-терапию
- Юта разработала более мягкое, но все же регулирующее законодательство
Ситуация напоминает пациента, который приносит врачу распечатку из интернета и требует: «Обсудите это с доктором Google». Только теперь вместо поисковика — непредсказуемый ИИ, способный генерировать убедительные, но потенциально опасные рекомендации. Ирония в том, что терапевты, отказывающиеся обсуждать ИИ-советы, рискуют потерять доверие клиентов, которые все равно будут использовать чат-боты, но уже тайком.
Терапевты между молотом и наковальней
Часть специалистов категорически отвергает любые обсуждения искусственного интеллекта во время сессий, настаивая на исключительно человеко-человеческом взаимодействии. Однако такой подход создает проблему: клиенты начинают скрывать использование ИИ, что нарушает принцип целостного подхода к терапии.
Более того, пациенты все активнее хотят обсуждать ИИ-рекомендации со своими терапевтами. Специалисты, отказывающиеся от таких дискуссий, рискуют потерять клиентов в пользу более прогрессивных коллег.
По сообщению Forbes, эта тенденция только набирает обороты, и терапевтам придется выработать четкую позицию по отношению к ИИ-помощникам своих пациентов.
Оставить комментарий