Оглавление

Мир кибербезопасности, кажется, вплотную подошел к моменту, который эксперты уже окрестили «вулнпокалипсисом». Как сообщает издание Axios, один из крупнейших игроков на рынке защиты данных, компания Palo Alto Networks, обнаружила в своих продуктах 75 уязвимостей всего за несколько недель тестирования новых нейросетевых моделей. Этот результат более чем в семь раз превышает средние ежемесячные показатели компании, что заставляет по-новому взглянуть на эффективность традиционных методов аудита кода.

Столь резкий скачок результативности связан с использованием специализированных инструментов — Mythos Preview от Anthropic и GPT-5.5-Cyber от OpenAI. Эти модели были спроектированы с прицелом на поиск слабых мест в программном обеспечении, и первые же тесты показали, что возможности искусственного интеллекта в этой области выходят на качественно иной уровень. По оценкам экспертов, у организаций осталось от трех до пяти месяцев, прежде чем подобные инструменты станут массово доступны злоумышленникам.

Логика против простого поиска ошибок

Главным отличием новых моделей стала их способность понимать логику работы приложений. Если предыдущие системы ИИ зачастую просто искали опечатки в коде или известные паттерны ошибок, то GPT-5.5 и Mythos научились выстраивать сложные цепочки эксплуатации. Это означает, что нейросеть видит, как несколько незначительных на первый взгляд недочетов могут быть объединены в одну критическую брешь, позволяющую взломать систему целиком.

Директор по продуктам Palo Alto Networks Ли Кларич отметил, что во время внутренних испытаний модели генерировали работоспособные эксплойты — программы для реализации взлома — более чем в 70% случаев. Это пугающая цифра для любого разработчика, привыкшего полагаться на то, что создание рабочего инструмента атаки требует долгого ручного труда высококвалифицированного специалиста.

«Эти модели — не магия. Мы потратили огромное количество времени на создание специальной «обвязки» для сканирования, которая связывает модель с объектом проверки, обеспечивает её контекстом и устанавливает необходимые рамки«, — говорит Ли Кларич.

Человеческий фактор и технологические барьеры

Несмотря на впечатляющие цифры, автоматизация пока не заменяет человека полностью. Исследователи столкнулись с тем, что уровень ложноположительных срабатываний — когда ИИ видит проблему там, где её нет — составил около 30%. Для эффективной работы моделям по-прежнему требуются детальные инструкции (промпты) и глубокая интеграция с базами данных об актуальных угрозах. Тем не менее, скорость, с которой ИИ перебирает варианты атак, уже недоступна человеческому разуму.

Использование нескольких моделей параллельно дает отличный охват, но превращает процесс защиты в бесконечную гонку за заплатками. Главный риск здесь — иллюзия безопасности: автоматизированный поиск уязвимостей может создать завал из отчетов, в котором затеряются действительно критические угрозы, пока команды будут тонуть в исправлении мелких логических цепочек. Отрасли пора признать, что «серебряной пули» нет, а есть лишь более быстрый способ находить собственные ошибки.

В Palo Alto Networks подчеркивают, что разные модели — от Anthropic и OpenAI — находят разные типы уязвимостей. Поэтому для достижения максимальной безопасности компаниям рекомендуется использовать мультимодальный подход, запуская проверки параллельно на нескольких движках. Это позволяет перекрыть «слепые зоны» конкретных алгоритмов и выявить максимум потенциальных векторов атаки до того, как ими воспользуются хакеры.

Стратегия выживания в новых условиях

В условиях, когда время на реакцию сокращается до «машинных скоростей», эксперты предлагают компаниям пересмотреть свои подходы к безопасности. Речь идет не просто об обновлении антивирусов, а о комплексной трансформации ИТ-инфраструктуры. Основные рекомендации включают в себя:

  • Внедрение систем автоматического обнаружения и блокировки атак в реальном времени.
  • Максимальное сокращение количества сервисов, доступных из открытого интернета.
  • Интеграция ИИ-инструментов непосредственно в работу центров мониторинга безопасности (SOC).
  • Регулярное превентивное сканирование кода собственными силами с использованием новейших LLM.

На государственном уровне в США уже идут активные дискуссии о необходимости введения ограничений на использование столь мощных кибермоделей. Белый дом рассматривает предложения по обязательному тестированию безопасности систем уровня Mythos перед их широким развертыванием. Однако, как показывает практика, технологический прогресс обычно движется быстрее, чем законодательные инициативы.