Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

OpenAI представила Codex Security

OpenAI представила Codex Security — инструмент для поиска уязвимостей в коде

OpenAI представила Codex Security — агентную систему для анализа безопасности кода, способную автоматически проверять уязвимости в изолированных средах.

Шпионские ИИ-расширения

Microsoft обнаружил, что шпионские ИИ-расширения браузеров украли данные 900 тысяч пользователей

Масштабная кампания затронула 900 тысяч пользователей и 20 тысяч организаций. Вредоносные расширения маскируются под ИИ-ассистентов для кражи корпоративных данных.

Скрытые ошибки опаснее восстания ИИ

Накопление скрытых ошибок в корпоративных ИИ-системах может быть опаснее восстания машин

Компании сталкиваются с новым риском — «тихими сбоями» ИИ, когда микроскопические ошибки незаметно накапливаются и приводят к финансовым потерям. Проблема связана с растущей сложностью моделей и потерей управляемости.

OpenAI блокирует сети скамеров

OpenAI блокирует сети аккаунтов, использовавшихся мошенниками для ИИ-скама

Отчёт OpenAI показал, как LLM используются для автоматизации мошенничества — от романтических схем до политических кампаний. ИИ ускоряет производство убедительного контента, превращая социальную инженерию в масштабируемую индустрию.

LMM создают слабые пароли

Сгенерированные LLM пароли оказались слабыми, несмотря на внешнюю сложность

Пароли от LLM выглядят сложными, но повторяются и предсказуемы. Исследование показало критически низкую реальную энтропию и реальные риски для кода и инфраструктуры.

Сканер уязвимостей Claude Code Security

Anthropic запустила ИИ-сканер уязвимостей Claude Code Security

Claude Code Security от Anthropic «читает» код, как исследователь: понимает потоки данных, находит логику ошибок и генерирует патчи с рейтингом. Минус ложных позитивов — многоступенчатая проверка ИИ. Уже нашёл 500+ багов в open-source, но риски: такие же инструменты помогут хакерам.