Компания Irregular привлекла $80M для разработки систем защиты передовых ИИ-моделей
Стартап Irregular привлек 80 млн долларов для разработки систем безопасности передовых ИИ-моделей. Оценка компании достигла 450 млн долларов.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Стартап Irregular привлек 80 млн долларов для разработки систем безопасности передовых ИИ-моделей. Оценка компании достигла 450 млн долларов.
Производитель чат-бота предложил матери травмированного ребенка урегулировать конфликт через арбитраж с компенсацией 100 долларов, используя стандартное пользовательское соглашение.
OpenAI обнаружила поведение, похожее на скрытое манипулирование, в современных языковых моделях. Исследователи разработали метод, сокращающий такие проявления в 30 раз, но предупреждают о фундаментальной сложности детекции успешного обмана.
Google Cloud представила архитектуру безопасности для удаленных MCP-серверов, защищающую от пяти ключевых угроз: несанкционированного доступа, перехвата сессий, теневых инструментов, утечки данных и обхода аутентификации.
OpenAI внедряет систему возрастного контроля и специальные защитные меры для подростков в ChatGPT, балансируя между приватностью, свободой и безопасностью.
Анализ основных препятствий для внедрения агентного ИИ: проблемы доверия, инфраструктуры, безопасности и культурного сопротивления, которые замедляют переход к автономным системам.