Исследование: безопасности LLM угрожает незаметная порча данных
Исследование показывает, что минимальное количество вредоносных данных может создавать уязвимости в языковых моделях, опровергая традиционные представления о безопасности ИИ.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Исследование показывает, что минимальное количество вредоносных данных может создавать уязвимости в языковых моделях, опровергая традиционные представления о безопасности ИИ.
Обзор ключевых этических трендов в области искусственного интеллекта, которые будут формировать доверие и ответственность в 2026 году: от авторских прав до глобального регулирования.
Cisco представила открытый инструмент MCP Scanner для анализа безопасности серверов Model Context Protocol, используемых ИИ-агентами для взаимодействия с внешними инструментами.
Более 1000 экспертов требуют запретить разработку сверхразумного ИИ до достижения научного консенсуса о безопасности. В числе подписантов — нобелевские лауреаты и технологические лидеры.
Многоуровневая система защиты AI-ассистента Comet от инъекций промптов: классификация в реальном времени, структурированные промпты, подтверждение действий и прозрачные уведомления.
Reddit подал иск против Perplexity AI и трех других компаний за незаконный сбор данных пользователей в промышленных масштабах для обучения AI-моделей.