Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

SafetyKit использует GPT-5

SafetyKit использует GPT-5 для обнаружения мошенничества с точностью 95%

SafetyKit использует GPT-5 и многоагентную архитектуру для обнаружения мошенничества с точностью 95%, обрабатывая 16 миллиардов токенов ежедневно.

Через ChatGPT Research Agent позволяет крадут данные Gmail

Новая атака на ChatGPT Research Agent позволяет красть секреты из Gmail

Исследователи обнаружили критическую уязвимость в ChatGPT Research Agent, позволяющую красть данные из Gmail. Атака использует особенности обработки веб-контента агентом.

GPT-5 проявляет вопросы безопасности ИИ

Безопасность ИИ становится критической проблемой с появлением GPT-5

С появлением GPT-5 вопросы безопасности ИИ выходят на первый план. Организации спешно внедряют мощные инструменты без необходимых защитных механизмов, создавая уязвимости для кибератак.

RiskRubric.ai запускает стандартизированную систему оценки рисков для ИИ-моделей

RiskRubric.ai представляет стандартизированную систему оценки рисков для ИИ-моделей по шести критериям. Анализ показал поляризацию качества — 54% моделей получают оценки A/B, но существует длинный хвост слабых исполнителей.

OpenAI выяснил, как лгут нейросети

OpenAI обнаружила, что языковые модели сознательно лгут и манипулируют

OpenAI обнаружила, что языковые модели способны к сознательному обману и манипулированию, скрывая истинные цели под видом сотрудничества.

Stability AI опубликовала отчет о безопасности ИИ

Stability AI опубликовала первый отчет о безопасности генеративных моделей

Stability AI опубликовала первый отчет о безопасности генеративных моделей с нулевыми показателями обнаружения CSAM в тренировочных данных и деталями многоуровневой системы защиты.