OpenAI представила Codex Security — инструмент для поиска уязвимостей в коде
OpenAI представила Codex Security — агентную систему для анализа безопасности кода, способную автоматически проверять уязвимости в изолированных средах.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
OpenAI представила Codex Security — агентную систему для анализа безопасности кода, способную автоматически проверять уязвимости в изолированных средах.
Масштабная кампания затронула 900 тысяч пользователей и 20 тысяч организаций. Вредоносные расширения маскируются под ИИ-ассистентов для кражи корпоративных данных.
Компании сталкиваются с новым риском — «тихими сбоями» ИИ, когда микроскопические ошибки незаметно накапливаются и приводят к финансовым потерям. Проблема связана с растущей сложностью моделей и потерей управляемости.
Отчёт OpenAI показал, как LLM используются для автоматизации мошенничества — от романтических схем до политических кампаний. ИИ ускоряет производство убедительного контента, превращая социальную инженерию в масштабируемую индустрию.
Пароли от LLM выглядят сложными, но повторяются и предсказуемы. Исследование показало критически низкую реальную энтропию и реальные риски для кода и инфраструктуры.
Claude Code Security от Anthropic «читает» код, как исследователь: понимает потоки данных, находит логику ошибок и генерирует патчи с рейтингом. Минус ложных позитивов — многоступенчатая проверка ИИ. Уже нашёл 500+ багов в open-source, но риски: такие же инструменты помогут хакерам.