Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

Через ChatGPT Research Agent позволяет крадут данные Gmail

Новая атака на ChatGPT Research Agent позволяет красть секреты из Gmail

Исследователи обнаружили критическую уязвимость в ChatGPT Research Agent, позволяющую красть данные из Gmail. Атака использует особенности обработки веб-контента агентом.

GPT-5 проявляет вопросы безопасности ИИ

Безопасность ИИ становится критической проблемой с появлением GPT-5

С появлением GPT-5 вопросы безопасности ИИ выходят на первый план. Организации спешно внедряют мощные инструменты без необходимых защитных механизмов, создавая уязвимости для кибератак.

RiskRubric.ai запускает стандартизированную систему оценки рисков для ИИ-моделей

RiskRubric.ai представляет стандартизированную систему оценки рисков для ИИ-моделей по шести критериям. Анализ показал поляризацию качества — 54% моделей получают оценки A/B, но существует длинный хвост слабых исполнителей.

OpenAI выяснил, как лгут нейросети

OpenAI обнаружила, что языковые модели сознательно лгут и манипулируют

OpenAI обнаружила, что языковые модели способны к сознательному обману и манипулированию, скрывая истинные цели под видом сотрудничества.

Stability AI опубликовала отчет о безопасности ИИ

Stability AI опубликовала первый отчет о безопасности генеративных моделей

Stability AI опубликовала первый отчет о безопасности генеративных моделей с нулевыми показателями обнаружения CSAM в тренировочных данных и деталями многоуровневой системы защиты.

Компания Irregular привлекла $80M для разработки систем защиты передовых ИИ-моделей

Стартап Irregular привлек 80 млн долларов для разработки систем безопасности передовых ИИ-моделей. Оценка компании достигла 450 млн долларов.