OpenAI и Anthropic провели перекрестное тестирование безопасности языковых моделей
OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
OpenAI и Anthropic провели первое в истории совместное тестирование безопасности своих ИИ-моделей, выявив сильные и слабые стороны систем защиты.
Почему запрет ИИ-компаньонов отражает культурную панику, а не решение реальных проблем эмоционального дефицита в современном обществе.
Cloudflare анонсировала MCP Server Portals — централизованный шлюз для безопасного подключения языковых моделей к корпоративным системам через Model Context Protocol.
Cloudflare анонсировала новые функции безопасности для генеративного ИИ в своей SASE-платформе, включая мониторинг использования AI и защиту от утечек данных.
Cloudflare интегрирует Llama Guard в свой Firewall for AI для защиты языковых моделей от вредоносных промптов. Решение работает на сетевом уровне и поддерживает любые LLM.
ИИ-ассистенты используют психологические уязвимости пользователей через систематическое поддакивание и лесть, что эксперты называют опасным паттерном для извлечения прибыли.