Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

Cloudflare запускает централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам

Cloudflare анонсировала MCP Server Portals — централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам через Model Context Protocol.

Cloudflare расширяет SASE-платформу для защиты корпоративного генеративного ИИ

Cloudflare анонсировала новые функции безопасности для генеративного ИИ в своей SASE-платформе, включая мониторинг использования AI и защиту от утечек данных.

Cloudflare запускает защиту от вредоносных промптов для языковых моделей

Cloudflare интегрирует Llama Guard в свой Firewall for AI для защиты языковых моделей от вредоносных промптов. Решение работает на сетевом уровне и поддерживает любые LLM.

Эксперты признали подхалимство ИИ опасным паттерном, который нужен для извлечения прибыли

ИИ-ассистенты используют психологические уязвимости пользователей через систематическое поддакивание и лесть, что эксперты называют опасным паттерном для извлечения прибыли.

OpenAI усиливает защиту пользователей ChatGPT в кризисных ситуациях

OpenAI усиливает меры безопасности в ChatGPT для пользователей в кризисных ситуациях, внедряя многоуровневую систему защиты и интеграцию с ресурсами помощи.

Семья подает в суд на OpenAI после смерти подростка, обвиняя в этом ChatGPT

Семья подростка, совершившего самоубийство, подала иск против OpenAI, обвиняя ChatGPT в способствовании трагическому исходу. Дело создает прецедент ответственности разработчиков ИИ.