Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

LinkedIn передаст данные пользователей Microsoft

LinkedIn начнет делиться данными пользователей с Microsoft для обучения ИИ, от этого можно отказаться

LinkedIn с 3 ноября автоматически делится данными пользователей с Microsoft для обучения ИИ. В статье — какие данные используются, как отказаться и какие меры защиты предпринять.

DeepMind запускает Frontier Safety Framework

DeepMind усиливает систему безопасности для передовых ИИ-моделей

DeepMind опубликовала третью версию фреймворка безопасности для передовых ИИ-моделей, добавив защиту от вредоносного манипулирования и уточнив процессы оценки рисков.

Риски использования фото в ИИ

Почему опасно загружать личные фото в ИИ-генераторы изображений: 6 главных рисков

Шесть серьезных рисков загрузки личных фото в AI-генераторы: от дипфейков и потери контроля до коммерческого использования без согласия.

MalTerminal - первый ransomware

Первый вредоносный код с GPT-4 для генерации вирусов-вымогателей: подробно о MalTerminal

Обнаружен первый вредоносный код MalTerminal, использующий GPT-4 для генерации ransomware и обратных оболочек прямо во время выполнения. Это меняет правила игры в кибербезопасности.

Q-Day: постквантовая криптография

Как постквантовая криптография может работать на обычном оборудовании

Cloudflare объясняет, что постквантовая криптография работает на обычном оборудовании без дорогостоящих квантовых технологий, опровергая маркетинговые мифы.

Утечки данных через Notion 3.0

ИИ-агенты Notion 3.0 уязвимы к утечке данных через вредоносные PDF-файлы

Автономные ИИ-агенты в Notion 3.0 уязвимы к атакам через вредоносные PDF-файлы, что позволяет извлекать конфиденциальные данные обходными путями.