Люди, обращающиеся за психологической помощью к чат-ботам, начинают вести воображаемые беседы с ИИ даже после завершения сессии. Это явление, известное в психологии как интернализация терапевта, теперь проявляется в отношениях человека с алгоритмами.
Психологический феномен в цифровую эпоху
Согласно данным Forbes, миллионы людей используют генеративный ИИ для получения психологических консультаций. Доступность и круглосуточная работа алгоритмов делают их привлекательной альтернативой традиционной терапии. Однако исследователи обнаружили неожиданный побочный эффект: пациенты продолжают «общаться» с ИИ в своем воображении, создавая фантомные диалоги.
Мы создали инструмент, который имитирует человеческое общение настолько убедительно, что мозг начинает воспринимать его как реального собеседника. Это напоминает ситуацию, когда после долгого просмотра сериала вы начинаете «слышать» голоса персонажей. Но в случае с терапией ставки значительно выше — речь идет о формировании внутренних психологических опор.
Научное обоснование явления
Психологи изучают феномен интернализации терапевта более 25 лет. Исследование «Внутренние представления клиентов о своих терапевтах» 1999 года описывает это как «осознанное воспроизведение внутреннего образа терапевта в визуальной, слуховой или комбинированной форме, когда клиент не находится на сессии».
Ключевые характеристики фантомных диалогов:
- Создание воображаемого присутствия ИИ-терапевта
- Ведение полномасштабных диалогов в уме
- Активация во время стрессовых ситуаций
- Воспроизведение стиля общения и манеры ответов алгоритма
Риски и возможности
С одной стороны, такая интернализация может усиливать терапевтический эффект, позволяя пациентам продолжать работу над собой вне сессий. С другой — возникает вопрос о качестве советов, которые ИИ продолжает «давать» в воображении пользователя.
Самое тревожное в этой ситуации — отсутствие механизмов контроля. Человеческий терапевт может корректировать свои рекомендации, основываясь на реакции клиента. Алгоритм же застывает в сознании пациента в том виде, в каком был «запомнен» во время последнего взаимодействия. Это похоже на то, как если бы вы консультировались с врачом, а потом продолжали ставить себе диагнозы по учебнику, который он вам когда-то рекомендовал.
Использование генеративного ИИ для терапии особенно проблематично — эти системы не предназначены специально для психологической помощи и могут давать непредсказуемые советы, которые затем воспроизводятся в фантомных диалогах.
По материалам Forbes.
Оставить комментарий