Оглавление

Автопроизводители активно развивают системы вождения Level 3, которые позволяют отводить глаза от дороги, но юридическая ответственность при авариях остается серой зоной. По сообщению The Verge, индустрия движется к массовому внедрению технологии, не решив фундаментальный вопрос: кто будет виноват, когда что-то пойдет не так.

Технологический прорыв с юридическими дырами

General Motors присоединился к растущему списку автопроизводителей, разрабатывающих системы «вождения без контроля зрения». В отличие от существующего Super Cruise, который отслеживает взгляд водителя, Level 3 разрешит полностью отвлекаться от дороги на определенных магистралях. Цель GM — запустить систему к 2028 году, начиная с Cadillac Escalade IQ.

Ключевая проблема Level 3 — противоречивая природа технологии. Водителям разрешено отвлекаться, но они должны быть готовы мгновенно взять управление при запросе системы. Исследования показывают, что люди плохо справляются с такими «внезапными возвратами в контур управления».

Парадокс Level 3 напоминает ситуацию, когда вас просят не спать, но при этом разрешают закрывать глаза. Технологически это возможно, но психологически — противоестественно. Автопроизводители создают системы, которые поощряют расслабленность, но требуют постоянной боевой готовности. Юридические последствия этого когнитивного диссонанса еще предстоит осознать.

Регуляторный вакуум и прецеденты

Ситуация осложняется тем, что Level 3 в большинстве регионов остается незаконным. Исключения:

  • Mercedes-Benz Drive Pilot — разрешен только в Калифорнии и Неваде
  • BMW и Honda — временные разрешения в Германии и Японии

Mercedes заявляет о готовности нести ответственность за аварии, вызванные их технологией, но с оговорками. Водитель остается ответственным, если не успевает перехватить управление или неправильно использует систему.

Опасные переходы и человеческий фактор

Исследование десятков аварий с участием Tesla показало, что Autopilot отключается «менее чем за секунду до столкновения». Хотя расследование не выявило умысла со стороны компании, такая практика ставит под вопрос реальную готовность систем к непредвиденным ситуациям.

Доктор Александра Мюллер из Insurance Institute for Highway Safety отмечает: «Смешанный транспортный поток, который будет существовать, вероятно, дольше нашей жизни, создает высоконеконтролируемую среду, с которой автоматизированные системы будут бороться бесконечно».

Судебные прецеденты: тенденция обвинять человека

Уже формируется судебная практика, возлагающая ответственность на водителя:

  • В Аризоне оператор беспилотного Uber признал вину по обвинению в непредумышленном убийстве
  • Водитель Tesla признал вину в двух смертельных случаях при активном Autopilot
  • Во Флориде Tesla была признана частично ответственной, но водитель также понес наказание

Такие исходы, вероятно, радуют автопроизводителей, но создают опасный прецедент, когда человек становится «крайним» в системах, предназначенных для его замены.