Оглавление

Министерство обороны США, по сообщениям, заключило соглашение о развертывании ИИ-модели Grok от Илона Маска в своих секретных военных сетях. Этот шаг указывает на потенциальное изменение в подходе к использованию передового искусственного интеллекта в оборонной сфере. Как сообщает Tech Times, данное решение принято на фоне растущих трений с компанией Anthropic, разработчиком модели Claude AI, касательно ограничений на её применение и этических аспектов.

Разногласия с Anthropic связаны с жёсткими требованиями Пентагона к снятию всех ограничений на использование Claude AI в военных целях, включая автономные системы и массовое наблюдение. Anthropic, в свою очередь, настаивает на этических соображениях и мерах безопасности, призванных предотвратить неправомерное использование своих технологий.

Grok AI в секретных операциях

По данным Axios, Grok AI будет задействован в чувствительных военных задачах, таких как анализ разведданных, планирование боевых действий и разработка вооружений. Внедрение Grok знаменует собой значительное расширение использования ИИ в Пентагоне.

Однако официальные лица предупреждают, что полная замена Claude AI, ранее интегрированной через партнёрства с такими компаниями, как Palantir, является технически сложной задачей и, вероятно, будет происходить постепенно. Это подчёркивает инерцию существующих систем и сложность миграции в критически важных инфраструктурах.

Этическая дилемма Anthropic

Одобрение Grok совпадает с обострением конфликта между Пентагоном и Anthropic. Министерство обороны, как сообщается, потребовало от Anthropic разрешить использование Claude AI для «всех законных целей», включая военные приложения, которые могут затрагивать автономные системы или массовое наблюдение. Anthropic сопротивляется, ссылаясь на этические соображения и меры безопасности, разработанные для предотвращения неправомерного использования.

По информации Engadget, министр обороны Пит Хегсет, как утверждается, установил жёсткий срок для Anthropic, чтобы снять эти ограничения, предупредив, что несоблюдение может привести к присвоению компании статуса «риска для цепочки поставок» или поставить под угрозу её многомиллионный контракт с Пентагоном. Это демонстрирует, как этические принципы могут вступать в прямое противоречие с государственными интересами в сфере безопасности.

Развёртывание Grok AI в оборонных сетях США, на фоне этических разногласий с Anthropic, выглядит как прагматичный выбор в условиях геополитической конкуренции. Однако, несмотря на заявленную универсальность, Grok, как и любая большая языковая модель, не лишена рисков, связанных с галлюцинациями и предвзятостью данных. Ставка на «вседозволенность» в военном применении ИИ, игнорируя этические барьеры, может создать прецедент, где операционная эффективность будет превалировать над долгосрочными стратегическими рисками, включая неконтролируемое распространение дезинформации или непредвиденные сбои в критических системах. Это не столько технологический прорыв, сколько демонстрация готовности к компромиссам в угоду скорости внедрения.

Расширение партнёрств в сфере ИИ

Помимо Grok и Claude, Пентагон изучает возможности сотрудничества с другими крупными поставщиками ИИ, включая OpenAI и Google Gemini, которые оказались более восприимчивыми к поддержке военных функций. Зависимость от ИИ в военных целях уже не является чем-то новым; он широко используется для создания стратегического преимущества без риска для человеческих жизней.

Однако, как показывает практика, доступ к Grok не всегда воспринимается однозначно за пределами США. Например, он был запрещён в Индонезии и Малайзии из-за опасений властей, что он способствует распространению дипфейков. Это привело к блокировке приложения в соответствии с местными законами о безопасности в интернете, что подчёркивает глобальные вызовы, связанные с регулированием ИИ.