Безопасность

Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.

Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.

OpenAI и Anthropic провели перекрестное тестирование безопасности языковых моделей

OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.

Почему запрещать ИИ-компаньонов — это ошибка, а не решение

Почему запрет ИИ-компаньонов отражает культурную панику, а не решение реальных проблем эмоционального дефицита в современном обществе.

Cloudflare запускает централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам

Cloudflare анонсировала MCP Server Portals — централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам через Model Context Protocol.

Cloudflare расширяет SASE-платформу для защиты корпоративного генеративного ИИ

Cloudflare анонсировала новые функции безопасности для генеративного ИИ в своей SASE-платформе, включая мониторинг использования AI и защиту от утечек данных.

Cloudflare запускает защиту от вредоносных промптов для языковых моделей

Cloudflare интегрирует Llama Guard в свой Firewall for AI для защиты языковых моделей от вредоносных промптов. Решение работает на сетевом уровне и поддерживает любые LLM.

Эксперты признали подхалимство ИИ опасным паттерном, который нужен для извлечения прибыли

ИИ-ассистенты используют психологические уязвимости пользователей через систематическое поддакивание и лесть, что эксперты называют опасным паттерном для извлечения прибыли.