Оглавление

Система безопасности Doppel, построенная на основе моделей OpenAI GPT-5 и o4-mini, сократила нагрузку на аналитиков на 80% и снизила время реагирования на угрозы с часов до минут. По сообщению OpenAI, компания создала автоматизированную систему защиты от социальной инженерии, способную противостоять бесконечно масштабирующимся атакам.

Новый уровень угроз

Один сайт-имитация может запуститься, атаковать тысячи пользователей и исчезнуть менее чем за час — этого более чем достаточно для нанесения реального ущерба. А с генеративными инструментами злоумышленники могут создавать сотни таких сайтов за секунды.

Doppel изначально создавалась для защиты организаций от дипфейков и онлайн-имитаций, но быстро осознала, что ИИ означает бесконечное масштабирование угроз. Атакующие больше не нуждаются в ручном создании мошеннических схем — они могут генерировать бесконечные варианты фишинговых наборов, поддельных доменов и фальшивых аккаунтов.

Урон от фишинговых атак может произойти в течение нескольких минут по мере их распространения через социальные сети и мессенджеры. Способность генерировать бесконечное убеждение практически без затрат изменила всё.

Автоматизация вместо ручного труда

Традиционная защита от цифровых рисков полагалась на людей, которые вручную проверяли сайты-имитации, фишинговые домены и профили в социальных сетях. Doppel увидела, что эта модель рушится, когда атакующие начали автоматизировать создание угроз быстрее, чем люди могли их оценивать.

«Наша система обрабатывает постоянный поток сигналов, чтобы идентифицировать реальные угрозы среди шума. Как только угроза обнаружена, существует очень узкое окно для действий до того, как будет нанесен ущерб», — говорит Рахул Маддулури, сооснователь и технический директор Doppel.

Эта скорость критически важна для клиентов Doppel — организаций, которые не могут позволить себе ждать часами для подтверждения угрозы. Система Doppel автоматически классифицирует большинство угроз, используя модели OpenAI для анализа и структурированный цикл обратной связи, известный как reinforcement fine-tuning (RFT), для постоянного улучшения модели.

Архитектура обнаружения угроз на основе LLM

Конвейер Doppel на базе языковых моделей находится в центре стека обнаружения угроз. После сбора и фильтрации сигналов система выполняет серию целенаправленных задач анализа: оценку потенциальных угроз, подтверждение намерений и принятие решений по классификации.

Вот как это работает:

  1. Фильтрация сигналов и извлечение признаков: Системы Doppel ежедневно обрабатывают миллионы доменов, URL-адресов и аккаунтов. Комбинация эвристик и модели OpenAI o4-mini отфильтровывает шум и извлекает структурированные признаки для последующих оценок моделей.
  2. Параллельное подтверждение угроз: Каждый сигнал проходит через несколько промптов GPT-5, специально созданных для разных типов анализа угроз. Эти промпты оценивают такие факторы, как риск имитации, неправомерное использование бренда или паттерны социальной инженерии.
  3. Классификация угроз: Версия o4-mini с RFT синтезирует предыдущие подтверждения для присвоения структурированной метки — вредоносный, доброкачественный или неопределенный — с производственной согласованностью.
  4. Финальная проверка: Второй проход GPT-5 валидирует решение модели и генерирует обоснование на естественном языке. Если уверенность превышает порог, система автоматически инициирует меры противодействия.
  5. Человеческий обзор: Результаты с низкой уверенностью или противоречивые направляются аналитикам. Их решения регистрируются и возвращаются в цикл RFT для непрерывного улучшения согласованности модели.

Обучение через reinforcement fine-tuning

Doppel уже видела значительные улучшения от своего первоначального конвейера обнаружения, усиленного LLM, но когда дело дошло до случаев, когда одна и та же угроза могла оцениваться по-разному в зависимости от аналитика, согласованность стала ограничивающим фактором.

«Мы видели различия в ответах на пограничные случаи», — говорит инженер-программист Киран Аримилли. «Одно из реальных преимуществ RFT заключается в том, что вы делаете решения модели более последовательными».

Для достижения этой согласованности Doppel применила RFT, используя собственные данные аналитиков в качестве источника обратной связи. Каждое решение классифицировать домен как вредоносный, доброкачественный или неясный стало размеченным примером. Эти размеченные примеры обучили модель воспроизводить экспертную оценку даже на неоднозначных пограничных случаях.

Ирония в том, что мы используем ИИ для борьбы с ИИ-угрозами — это как разворачивать огнемёт против огнемёта. Но именно такой уровень автоматизации необходим, когда атаки генерируются быстрее, чем человеческий мозг может их обработать. GPT-5 в этой системе работает не как творческий генератор, а как сверхбыстрый аналитик, способный оценить тысячи угроз одновременно.

Операционализация доверия через прозрачность

Тонкая настройка гиперпараметров и итеративные оценки приблизили модель к человеческой согласованности. Но для Doppel завершение последнего этапа автоматизации также означало сделать решения немедленно понятными.

Каждая автоматическая блокировка теперь включает AI-генерируемое обоснование, объясняющее, почему угроза была удалена, давая клиентам мгновенное понимание причин принятых мер — то, что раньше требовало вмешательства аналитика.

Расширение автоматизации на новые поверхности угроз

Достигнув почти полной автоматизации для фишинговых доменов и имитаций, Doppel теперь применяет ту же модель для других каналов с высокой вариативностью.

«Домены, вероятно, самый сложный канал, с которым мы работаем», — говорит Маддулури. «Сигналы грязные, контент постоянно меняется, и угрозы быстро эволюционируют сразу по нескольким поверхностям. Если мы можем автоматизировать это от начала до конца, мы можем сделать это для чего угодно: социальных сетей, платных объявлений, чего угодно».

Следующие этапы включают масштабирование набора данных RFT на порядок, эксперименты с новыми стратегиями оценки и использование GPT-5 для извлечения признаков на ранних стадиях. Эти изменения позволят Doppel консолидировать этапы конвейера и анализировать более сложные индикаторы угроз раньше в процессе.

С каждой итерацией Doppel строит систему, которая защищает реальное на каждой поверхности, где доверие подвергается атакам.