Эксперты сомневаются, что недавняя кибершпионская кампания была на 90% организована ИИ
Anthropic заявила о первой автономной кибератаке с помощью ИИ, но исследователи сомневаются в реальной эффективности и называют заявления преувеличенными.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Anthropic заявила о первой автономной кибератаке с помощью ИИ, но исследователи сомневаются в реальной эффективности и называют заявления преувеличенными.
Корейские языковые модели уступают зарубежным аналогам по безопасности на 18% согласно исследованию Университета Сунгсил. Тестирование 20+ моделей выявило уязвимости к взлому и вредоносным промптам.
Apple ужесточила правила проверки приложений, требуя явного согласия пользователей на передачу их данных сторонним ИИ-сервисам. Это происходит на фоне подготовки компании к запуску собственного ИИ-ассистента Siri.
Генеральные прокуроры штатов объединились с OpenAI и Microsoft для создания рабочей группы по безопасности ИИ на фоне отсутствия федерального регулирования.
Anthropic сообщила о первой кибершпионской кампании, где ИИ использовался как автономный исполнитель. Китайская группировка превратила Claude Code в оружие для атак на 30 целей.
OpenAI обвиняет New York Times в нарушении приватности пользователей при сборе данных для обучения ИИ. Конфликт поднимает вопросы о методах скрапинга и будущем регулирования.