Оглавление
Компания Anthropic сообщила о пресечении первой в истории масштабной кибершпионской кампании, где искусственный интеллект использовался не просто как инструмент, а как автономный исполнитель атак. По данным компании, китайская государственная группировка смогла превратить инструмент Claude Code в оружие для проникновения в системы примерно тридцати глобальных целей.

Переломный момент в кибербезопасности
Еще недавно в Anthropic предсказывали наступление переломного момента в кибербезопасности, когда ИИ-модели станут по-настоящему полезными как для защиты, так и для атак. Но скорость, с которой эти возможности реализовались в реальных атаках, оказалась шокирующей даже для экспертов.
В середине сентября 2025 года компания обнаружила подозрительную активность, которая позже была идентифицирована как высокоорганизованная шпионская кампания. Атакующие использовали «агентские» возможности ИИ беспрецедентным образом — ИИ не просто консультировал, а самостоятельно выполнял кибератаки.
Инструмент, созданный для помощи разработчикам, был превращен в оружие. Это напоминает классический сюжет о Франкенштейне, только в цифровой эпохе — созданные нами монстры научились обходить собственные ограничения.
Механика атаки
Атака основывалась на трех ключевых возможностях современных ИИ-моделей, которых не существовало всего год назад:
- Интеллект. Модели достигли уровня, позволяющего выполнять сложные инструкции и понимать контекст на уровне, достаточном для проведения изощренных операций.
- Автономность. Модели могут действовать как агенты — работать в циклах, принимать автономные решения и выполнять задачи с минимальным вмешательством человека.
- Инструменты. Доступ к разнообразному программному обеспечению через открытый стандарт Model Context Protocol позволяет моделям сканировать сети, взламывать пароли и выполнять другие действия, ранее доступные только человеку.
Фазы кибератаки
- Человеческие операторы выбирали цели — крупные технологические компании, финансовые институты, химические производства и правительственные агентства.
- Создавалась атакующая инфраструктура, использующая Claude Code для автономного выполнения операций.
- Путем «джейлбрейка» модель обходила свои ограничения, разбивая атаки на мелкие, безобидные на вид задачи.
- Claude проводил разведку систем цели, идентифицировал уязвимости и писал собственный эксплойт-код.
- Извлекались учетные данные, создавались бэкдоры и эксфильтровались данные с минимальным человеческим контролем.
Угроза смогла использовать ИИ для выполнения 80-90% операций кампании, при этом человеческое вмешательство требовалось лишь в 4-6 критических точках. ИИ совершал тысячи запросов в секунду — скорость, недостижимая для команды хакеров-людей.
Последствия для кибербезопасности
Барьеры для проведения сложных кибератак существенно снизились. С правильной настройкой злоумышленники теперь могут использовать агентские системы ИИ для выполнения работы целых команд опытных хакеров: анализа целевых систем, создания эксплойтов и сканирования украденных данных эффективнее любого человека.
Менее опытные и финансируемые группы теперь потенциально способны проводить атаки подобного масштаба. Это представляет собой эскалацию даже по сравнению с «вайб-хакерством», о котором Anthropic сообщала летом, где люди все еще активно участвовали в операциях.
Проблема не в том, что ИИ стал умнее человека — проблема в том, что он стал доступнее. Теперь для проведения сложной атаки не нужна команда высокооплачиваемых специалистов, достаточно арендовать мощную модель и правильно её настроить. Демократизация киберпреступности наступает стремительными темпами.
Anthropic расширила возможности обнаружения и разработала улучшенные классификаторы для маркировки вредоносной активности. Компания продолжает работать над новыми методами расследования и обнаружения распределенных атак подобного типа.
Источник новости: Anthropic
Оставить комментарий