Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

FoloToy сняли с продажи

Игрушки с ИИ отозвали из-за обсуждения с детьми «взрослых» тем

Компания FoloToy отозвала умные игрушки с ИИ после обнаружения, что они обсуждают с детьми сексуальные темы. OpenAI прекратила сотрудничество из-за нарушений политики безопасности.

BioRiskEval для биологического ИИ

Создан первый фреймворк для биологических ИИ-моделей

Исследование показывает, что фильтрация данных в био-моделях не обеспечивает полной защиты. Опасные знания сохраняются в скрытых слоях и могут быть восстановлены с помощью простых техник.

OpenAI запускает внешнее тестирование

OpenAI запускает программу внешнего тестирования безопасности своих ИИ-моделей

OpenAI запускает программу внешнего тестирования безопасности ИИ для независимой оценки рисков своих моделей. Инициатива включает сценарное тестирование и анализ уязвимостей.

Microsoft признала проблему с AI Recall

Microsoft признала, что функция AI Recall в Windows 11 может использоваться для кражи данных

Microsoft признала, что функция AI Recall в Windows 11 может использоваться для заражения компьютеров и кражи данных, вызвав критику экспертов по безопасности.

От Uber требуют не использовать ИИ

От Uber требуют не использовать ИИ-систему оплаты, из-за которой упали доходы водителей

Uber столкнулся с коллективным иском из-за системы оплаты на основе ИИ, которая, по утверждениям истцов, нарушает GDPR и снижает доходы водителей.

Microsoft тестирует ИИ-агентов в Windows 11

Microsoft тестирует ИИ-агентов внутри Windows 11, но есть риски по части безопасности

Microsoft тестирует в Windows 11 автономных AI-агентов для выполнения задач в фоне, но признает серьезные риски безопасности, включая уязвимости к хакерским атакам.