OpenAI представляет рекомендации по развитию искусственного интеллекта
OpenAI представила рекомендации по безопасному развитию ИИ, включая вопросы управления, международного сотрудничества и технической безопасности.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
OpenAI представила рекомендации по безопасному развитию ИИ, включая вопросы управления, международного сотрудничества и технической безопасности.
Исследование показывает, что ИИ-генерация вредоносного ПО не представляет серьезной угрозы. Современные языковые модели неспособны создавать функциональное malware.
Google обнаружил вредоносное ПО PROMPTFLUX, которое использует Gemini AI для ежечасного переписывания собственного кода, создавая беспрецедентные проблемы для кибербезопасности.
Microsoft Research представила первый полностью автоматизированный агент RedCodeAgent для тестирования безопасности ИИ-систем, генерирующих код. Инструмент обнаруживает уязвимости в популярных кодовых ассистентах.
Автопроизводители внедряют Level 3 автономное вождение, но юридическая ответственность при авариях остается неясной, что создает риски для водителей и общества.
Браузер Comet представил виджет Privacy Snapshot для упрощения контроля приватности и обновил настройки AI-ассистента с акцентом на гибридную модель хранения данных.