ИИ-модели уязвимы для бэкдоров от 250 вредоносных документов
Исследование показывает, что ИИ-модели уязвимы для бэкдоров от всего 250 вредоносных документов, независимо от их размера. Это меняет представления о безопасности больших языковых моделей.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Исследование показывает, что ИИ-модели уязвимы для бэкдоров от всего 250 вредоносных документов, независимо от их размера. Это меняет представления о безопасности больших языковых моделей.
Cloudflare запускает команду REACT для комплексного реагирования на киберинциденты, объединяя защиту на границе сети с внутренним расследованием и восстановлением.
Anthropic выпустила открытый инструмент Petri для автоматического аудита безопасности AI-моделей с использованием AI-агентов. В тестах 14 моделей выявлены проблемы с обманом и разглашением информации.
Использование ИИ в юридической практике создает новые риски при обработке доказательств. Юристы должны осторожно применять автоматизированные инструменты и обеспечивать человеческий контроль.
Страховые компании массово отказываются выплачивать компенсации по искам к разработчикам ИИ, ссылаясь на непредсказуемость технологии и исключительные риски.
Microsoft разработала систему многоуровневого доступа к опасным ИИ-разработкам в биологии после обнаружения уязвимостей в инструментах проектирования белков.