Оглавление

По сообщению TIME, врачи, регулярно использующие ИИ для обнаружения рака при колоноскопии, стремительно теряют диагностические навыки. Исследование, опубликованное в Lancet Gastroenterology and Hepatology, выявило тревожный эффект технологической зависимости: через три месяца работы с ИИ-ассистентами медики становились «менее мотивированными, менее сфокусированными и менее ответственными» при самостоятельной диагностике.

Методология исследования

Ученые из европейских институтов проанализировали 2177 колоноскопий в четырех польских клиниках, участвовавших в проекте ACCEPT (Artificial Intelligence in Colonoscopy for Cancer Prevention). Из них 1443 процедуры выполнялись без ИИ-помощи. 19 опытных эндоскопистов обследовали пациентов до и после внедрения ИИ-систем для обнаружения полипов (доброкачественных или злокачественных образований) в конце 2021 года.

Ключевые результаты

До внедрения ИИ скорость обнаружения аденом (ADR) составляла 28%. Через три месяца использования алгоритмов этот показатель упал до 22% при работе без ИИ. При этом:

  • С ИИ точность диагностики повышалась
  • Без ИИ навыки врачей заметно ухудшились

Исследователи объясняют это «естественной человеческой склонностью к чрезмерному доверию» системам поддержки решений. Марчин Романык, соавтор исследования, проводит аналогию с эффектом Google Maps: «Попробуйте добраться куда-либо без навигатора — обычная карта кажется бесполезной».

Экспертные оценки

Омер Ахмад, гастроэнтеролог из Университетского колледжа Лондона, отмечает в комментарии для TIME: «Зависимость от ИИ притупляет визуальные поисковые привычки и паттерны распознавания, критически важные для обнаружения полипов». Кэтрин Менон из Университета Хартфордшира подчеркивает: «Это первое исследование, подтверждающее деградацию навыков из-за ИИ в реальной клинической практике».

Это не просто вопрос контроля технологий — речь о проектировании новой экосистемы «человек-ИИ». Исследование обнажило фундаментальную ловушку автоматизации: чем эффективнее ИИ, тем быстрее атрофируются экспертные навыки. В медицине, где цена ошибки — человеческая жизнь, баланс критически важен. Вместо слепого доверия алгоритмам нужны протоколы, сохраняющие клиническое мышление. Производителям ИИ стоит пересмотреть дизайн систем: не заменять врача, а создавать «тренажеры» для усиления его компетенций. Иначе рискуем получить поколение диагностов, беспомощных без подсказки ИИ.

Аллан Такер из Брунельского университета добавляет важный контекст: «Проблема чрезмерного доверия не уникальна для ИИ — она возникает с любой новой технологией. Этический вопрос в том, кому мы делегируем ответственность». При этом он отмечает, что с ИИ общая производительность врачей выросла.