Оглавление

Споры о том, может ли искусственный интеллект нести ответственность за военные решения, упускают из виду фундаментальный факт: все технологии, включая ИИ, создаются и используются людьми. В выступлении перед Советом Безопасности ООН министр иностранных дел Австралии Пенни Вонг предупредила об опасностях ИИ в военной сфере, отметив, что «ядерная война до сих пор сдерживалась человеческим суждением», тогда как ИИ «не может быть привлечен к ответственности».

Как ИИ используется в современных военных конфликтах

Искусственный интеллект в военной области применяется в широком спектре задач — от симуляций для обучения солдат до систем поддержки принятия решений при целеуказании. Израильская система «Lavender», по сообщениям, идентифицирует предполагаемых членов ХАМАС, демонстрируя переход к автоматизации процессов, непосредственно влияющих на жизнь и смерть.

Однако важно различать:

  • Обучающие симуляции и аналитические инструменты
  • Системы, непосредственно участвующие в принятии решений о применении силы

Миф о «пробеле в подотчетности»

Аргумент о том, что ИИ создает уникальную «проблему подотчетности», игнорирует исторический контекст. Ненаправленные ракеты и мины десятилетиями использовались без вопросов об их «ответственности» за последствия.

Скандал с Robodebt в Австралии показал, что вина лежит на правительстве, а не на автоматизированной системе подсчета долгов. Аналогично, военные системы ИИ не существуют вне иерархии командования и контроля.

Страх перед «роботами-убийцами» отвлекает внимание от реальной проблемы — человеческих решений, стоящих за разработкой и развертыванием этих систем. Технически ИИ не принимает решений — он выполняет алгоритмы, созданные людьми, которые несут полную ответственность за последствия их применения. Регулировать нужно не технологии, а процессы их внедрения.

Человеческий фактор как ключевой элемент

Каждая сложная система, включая ИИ, проходит полный жизненный цикл:

  1. Планирование и проектирование
  2. Разработка и тестирование
  3. Внедрение и эксплуатация
  4. Обслуживание и вывод из эксплуатации

На каждом этапе люди принимают сознательные решения — от технических требований до операционных гарантий. Когда система ИИ развертывается, ее характеристики, включая недостатки и ограничения, являются результатом кумулятивных человеческих решений.

Системы вооружения с ИИ не принимают решений о жизни и смерти — это делают люди, которые сознательно выбирают использование этих систем в конкретном контексте. Регулирование ИИ-оружия по сути является регулированием людей, вовлеченных в жизненный цикл этих систем.

По материалам Phys.org