Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

OpenAI обвиняет New York Times

OpenAI обвиняет New York Times в нарушении приватности пользователей

OpenAI обвиняет New York Times в нарушении приватности пользователей при сборе данных для обучения ИИ. Конфликт поднимает вопросы о методах скрапинга и будущем регулирования.

Microsoft разработала BlueCodeAgent

Microsoft разработала BlueCodeAgent для защиты систем генерации кода

Microsoft разработала BlueCodeAgent — систему защиты для AI-генерации кода, использующую автоматизированное тестирование на проникновение для создания эффективных механизмов безопасности.

Google Private AI Compute

Google заявляет о безопасности облачного ИИ с новой системой Private AI Compute

Google представила Private AI Compute — защищенную облачную систему для обработки ИИ-запросов, которая по безопасности якобы не уступает локальной обработке.

OpenAI не хочет отдавать чаты

OpenAI оспаривает судебное требование о передаче 20 миллионов приватных чатов ChatGPT

OpenAI оспаривает требование суда предоставить 20 миллионов приватных чатов пользователей ChatGPT для расследования нарушения авторских прав — один из самых масштабных запросов на данные в истории.

Amazon платит за поиск дыр в Nova

Amazon запускает программу вознаграждений за поиск уязвимостей в моделях Nova

Amazon запускает частную программу bug bounty для AI-моделей Nova, привлекая избранных исследователей безопасности к тестированию систем перед публичным релизом.

ИИ требует ядерной энергетики

ИИ-индустрия требует ускорить развитие ядерной энергетики, что несет риски для безопасности

ИИ-индустрия требует ускоренного развития ядерной энергетики, что создает риски для безопасности из-за ослабления регуляторных норм и использования ИИ в лицензировании.