Оглавление

Быстрорастущий рынок ИИ-терапевтических приложений создает серьезные вызовы для регуляторов по всему миру. Технологические компании выпускают десятки приложений, обещающих психологическую поддержку с помощью искусственного интеллекта, но нормативная база за ними просто не успевает.

Пробелы в регулировании

Основная проблема заключается в том, что существующие законы о медицинском регулировании были написаны для человеческих специалистов, а не для алгоритмов. Многие ИИ-терапевты работают в серой зоне — они не требуют лицензирования как медицинские устройства, но при этом предоставляют услуги, очень близкие к психотерапии.

Риски для пользователей

Без должного контроля возникают серьезные риски:

  • Некорректные диагнозы и рекомендации
  • Отсутствие конфиденциальности данных
  • Неадекватная реакция на кризисные ситуации
  • Манипулятивное поведение алгоритмов

ИИ-терапия — это как дать непроверенное лекарство без инструкции. Алгоритмы могут быть опасны не потому, что злонамеренны, а потому что просто недостаточно протестированы в реальных условиях. Особенно тревожно, когда такие системы работают с уязвимыми людьми в состоянии депрессии или тревожности.

Глобальный вызов

Проблема носит международный характер — ИИ-приложения легко пересекают границы, в то время как регуляторы работают в рамках национальных юрисдикций. Это создает ситуацию, когда компания может обойти строгие правила одной страны, базируясь в другой с более мягким законодательством.

По сообщению ABC News, эксперты призывают к созданию международных стандартов для ИИ в ментальном здоровье, но процесс идет крайне медленно.