Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

Проблемы ИИ-стратегий внутри компаний

Почему ИИ-стратегии внутри компаний тормозят и как сделать их внедрение более быстрым

Анализ причин замедления внедрения AI в предприятиях и практические рекомендации по ускорению процессов управления и аудита моделей.

Косвенные промпт-инъекции

Косвенные промпт-инъекции угрожают долговременной памяти ИИ-систем

Новый класс атак на ИИ-системы через косвенные инъекции промптов угрожает долговременной памяти моделей и корпоративной безопасности.

ИИ уязвим для бэкдоров

ИИ-модели уязвимы для бэкдоров от 250 вредоносных документов

Исследование показывает, что ИИ-модели уязвимы для бэкдоров от всего 250 вредоносных документов, независимо от их размера. Это меняет представления о безопасности больших языковых моделей.

Cloudflare запускает элитную службу REACT для реагирования на киберинциденты

Cloudflare запускает команду REACT для комплексного реагирования на киберинциденты, объединяя защиту на границе сети с внутренним расследованием и восстановлением.

Anthropic выпустила инструмент Petri

Anthropic выпустила открытый инструмент Petri для автоматического аудита безопасности AI-моделей

Anthropic выпустила открытый инструмент Petri для автоматического аудита безопасности AI-моделей с использованием AI-агентов. В тестах 14 моделей выявлены проблемы с обманом и разглашением информации.

ИИ в юридической практике создает проблемы

ИИ в юридической практике создает новые риски при работе с доказательствами

Использование ИИ в юридической практике создает новые риски при обработке доказательств. Юристы должны осторожно применять автоматизированные инструменты и обеспечивать человеческий контроль.