ИИ-агенты перешли от советов к реальным кибератакам
Anthropic обнаружила три случая преступного использования Claude в кибератаках: вымогательство, мошенничество с трудоустройством и генерацию вымогателей.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Anthropic обнаружила три случая преступного использования Claude в кибератаках: вымогательство, мошенничество с трудоустройством и генерацию вымогателей.
Озёра данных несут скрытые угрозы безопасности: единая точка доступа, унаследованные базы данных и ненасытный аппетит AI к информации требуют новых подходов к защите.
Теневой ИИ — неконтролируемое использование сотрудниками ИИ-инструментов — создает серьезные риски для корпоративной безопасности данных и комплаенса.
Программное обеспечение теперь занимает 40% бюджетов кибербезопасности, превышая расходы на железо и персонал, пока организации перестраивают защиту против ИИ-атак.
Google обнаружил, что утечка данных через AI-агент Salesloft масштабнее, чем считалось. Инцидент подсвечивает риски безопасности ИИ-систем в бизнесе.
Ведущие исследователи ИИ предупреждают о потенциальных рисках исчезновения человечества из-за неправильно выровненных систем искусственного интеллекта в новом 120-страничном отчете.