Оглавление

Глобальный консенсус утверждает: существующее международное право, включая Устав ООН и гуманитарное право, сохраняет силу для военных систем с ИИ. Этот принцип технологической нейтральности означает, что автономное оружие подчиняется тем же нормам различия, пропорциональности и предосторожности, что и традиционные вооружения. Однако алгоритмическая непредсказуемость ставит практические вопросы о соблюдении этих норм в динамичной боевой обстановке.

Правовые вызовы автономных систем

Ключевая дилемма: как обеспечить человеческую ответственность за решения, принимаемые ИИ? Системы на машинном обучении могут демонстрировать неожиданное поведение в новых условиях, что:

  • Ставит под сомнение их способность последовательно применять принцип различия (комбатанты/гражданские)
  • Усложняет оценку пропорциональности ущерба
  • Затрудняет установление вины при нарушениях международного права

Регуляторные инициативы

С 2016 года Группа правительственных экспертов по смертоносным автономным системам (GGE LAWS) разрабатывает соглашение в рамках Конвенции о конкретных видах обычного оружия. Основные подходы:

  1. Абсолютный запрет систем, принципиально несовместимых с гуманитарным правом
  2. Жёсткое регулирование для остальных: обязательные юридические обзоры, человеческий контроль, защита от алгоритмических ошибок

Текущий проект (текст от 12 мая 2025) прямо возлагает ответственность на людей, а не на машины.

Поддержка ООН

Резолюции Генеральной Ассамблеи (78/241, 79/62, 79/239):

  • Распространяют действие права на весь жизненный цикл военного ИИ
  • Включают уголовную ответственность за нарушения
  • Требуют международных действий до 2026 года

Технологическая нейтральность права — теоретически безупречный принцип, но его практическое применение к «чёрным ящикам» ИИ напоминает попытку измерить температуру плазмы ртутным термометром. Ключевой парадокс: как требовать от алгоритмов соблюдения норм, созданных для человеческого сознания? GGE LAWS пытается навести мосты, но регуляторные процессы неизбежно отстают от темпов разработки автономных систем. Реальная проверка наступит, когда первая автономная платформа совершит ошибку с человеческими жертвами в зоне конфликта.

По данным Lieber Institute West Point.