Оглавление
Мир кибербезопасности стоит на пороге очередного витка технологической гонки, где главными действующими лицами становятся не только хакеры и системные администраторы, но и специализированные языковые модели. Сэм Альтман, генеральный директор OpenAI, анонсировал скорый запуск GPT-5.5 Cyber — продвинутого инструмента, призванного укрепить цифровую оборону критически важной инфраструктуры. Как сообщает издание Firstpost, релиз состоится в ближайшие дни, но доступ к новинке будет строго регламентирован.
Стратегия OpenAI в области безопасности выглядит последовательной, если не сказать стремительной. Всего несколько недель назад компания представила версию GPT-5.4 Cyber, и столь быстрое обновление до 5.5 указывает на интенсивную работу внутри лабораторий. Альтман подчеркнул, что первоначальный доступ получат лишь доверенные специалисты по защите, а вопрос более широкого использования будет решаться в тесном контакте с правительствами и отраслевыми партнерами.
«Мы начинаем развертывание GPT-5.5-Cyber, передовой модели для кибербезопасности, для ключевых защитников в ближайшие несколько дней. Мы будем работать со всей экосистемой и правительством, чтобы определить параметры доверенного доступа«, — говорит Сэм Альтман
От реверса до закрытых программ: возможности моделей Cyber
Если взглянуть на функциональность предыдущей итерации, GPT-5.4 Cyber, становится понятно, почему эти инструменты вызывают такой ажиотаж. Модель была обучена специфическим задачам, таким как бинарный реверс-инжиниринг. Это позволяет экспертам анализировать скомпилированный программный код на предмет уязвимостей и закладок, даже не имея доступа к исходникам. Вероятно, версия 5.5 расширит этот инструментарий, сделав анализ еще более глубоким и автоматизированным.
Интересно, что OpenAI сознательно снизила «барьеры отказа» для этих специализированных моделей. В отличие от стандартного ChatGPT, который может вежливо уклониться от анализа подозрительного кода, версии Cyber более лояльны к запросам исследователей безопасности. Чтобы эта гибкость не обернулась против создателей, доступ к моделям осуществляется через программу Trusted Access for Cyber (TAC), где каждая организация проходит тщательную проверку.
Конкуренция и риски двойного назначения
OpenAI не одинока в своем стремлении монополизировать ИИ-щит. Компания Anthropic недавно запустила модель Mythos в рамках проекта Project Glasswing, объединив усилия с такими гигантами, как Apple и Google. Это создает ситуацию, когда ведущие лаборатории мира соревнуются в создании самого совершенного «цифрового иммунитета», параллельно пытаясь удержать джинна в бутылке, ведь грань между поиском уязвимости для защиты и её эксплуатацией крайне тонка.
Технологический триумф здесь омрачен отсутствием прозрачных методик контроля за тем, как модель интерпретирует контекст атаки. В итоге мы получаем не столько решение проблемы, сколько перенос поля боя в плоскость, где у человека остается всё меньше времени на реакцию. Красивый ход, но системные риски перевешивают локальные выгоды.
Регуляторы по всему миру уже выражают обеспокоенность. Например, в Австралии банковский сектор получил предупреждение о том, что подобные модели могут использоваться злоумышленниками для масштабирования атак. Это напоминает классическую дилемму разработчика: создавая мощный API, ты всегда рискуешь, что кто-то найдет способ использовать его не по назначению. Вопрос лишь в том, успеют ли защитные механизмы OpenAI развиваться быстрее, чем изобретательность тех, кто окажется по другую сторону баррикад.
Оставить комментарий