Оглавление
Американские правительственные агентства столкнулись с фундаментальным противоречием: как интегрировать современные AI-системы в критически важные процессы, когда отказоустойчивость важнее инноваций. На недавней конференции в Вашингтоне обсуждали, сможет ли ИИ когда-либо стать достаточно прозрачным для использования в оборонной разведке.
Технология — не главная проблема
Майкл «Мик» Маккейб, глава по данным и ИИ в Министерстве обороны США, заявил: «Технология — это действительно не проблема. Проблема в том, что мы делаем вещи определенным образом. Сначала мы пытаемся оцифровать аналоговый процесс. Это неплохой первый шаг, но мы делаем это сейчас, чтобы включить новый процесс в будущем».
Ключевой вызов — работа в «отказанных средах», где нет стабильной связи с облачными провайдерами. «Последние 10 лет мы вели войну с террором из восточного региона Amazon cloud, AWS East. В следующий раз, когда мы пойдем на войну с конкурентом уровня peer, этого будет недостаточно для полевого командира».
Требование «объяснимого ИИ» — это не просто техническая прихоть, а фундаментальный парадокс. Современные нейросети по своей природе непрозрачны, и попытки заставить их объяснять решения напоминают требования к человеку детально описать каждый нейронный импульс. Военные хотят магию без магии — и это самый интересный вызов для индустрии.
Малые модели для больших задач
Представитель Космических сил задал ключевой вопрос: могут ли будущие AI-модели требовать меньше вычислительной мощности для работы в изолированных средах, например на орбитальных платформах. Дуг Джонсон из Rocket Software подтвердил, что такие модели уже разрабатываются и смогут работать на CPU вместо GPU.
«Мы видим, что многие малые языковые модели эффективны. Есть способы отправлять меньше данных в LLM, просить ее делать меньше работы. Вы получаете лучшие инсайты, но что интересно — с меньшей задержкой и дешевле».
Парадокс прозрачности
Уникальное правительственное требование — необходимость «объяснимого ИИ», то есть модели, которая может документировать и показывать процесс принятия решений. Это концепция, чуждая «черному ящику» ИИ, который частный сектор готов принять.
«Мы хотим интегрировать ИИ во все наши разведывательные операции. Мы хотим интегрировать его прямо сейчас, — говорит Маккейб. — Сложность в валидации. Наш разведывательный процесс очень аналоговый. Проходя через него и говоря: „Хорошо, этот ИИ делает то, и я могу доверять ему как разведывательному продукту“ — потребует объяснимого ИИ».
Пентагон уже работает над валидацией AI-выводов через постепенное внедрение: «Мы используем ИИ для подпрограмм — очень рутинных вещей, которые делают аналитики. Как только мы валидируем процесс, у нас появляется хорошая модель для него, мы можем мониторить дрейф».
Практические применения и вызовы
Кевин Хансен из MFGS отметил, что ИИ поможет в планировании и прогнозировании для всех правительственных агентств: «Ваши операционные данные содержат много важных данных, если вы можете их осмыслить. Возможность не только мониторить, но и предсказывать, где будут важные изменения».
В заключительной части конференции участники обсуждали киберустойчивость в госсекторе. Джон Кроссно из Rocket Software подводит итоги:
- Понимание архитектуры сети как первый шаг
- Определение приоритетов, начиная с критических систем
- Начинать с малого и постепенно расширять
- Проблемы видимости в гибридных средах
- Сложности оркестрации данных в гибридных облаках
По материалам SCWorld.
Оставить комментарий