Бывший исследователь OpenAI раскрыл механизм опасных галлюцинаций ChatGPT
Бывший исследователь OpenAI проанализировал случай, когда ChatGPT ввел пользователя в опасное заблуждение, и раскрыл системные проблемы безопасности ИИ-чатов.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Бывший исследователь OpenAI проанализировал случай, когда ChatGPT ввел пользователя в опасное заблуждение, и раскрыл системные проблемы безопасности ИИ-чатов.
Социальное приложение Sora от OpenAI заполнено дипфейками Сэма Альтмана в абсурдных ситуациях. Функция cameo позволяет создавать реалистичные дипфейк-видео, поднимая вопросы авторского права и этики.
Практические рекомендации по обеспечению безопасности AI-агентов в бизнес-процессах: от принципа нулевого доверия до мониторинга в реальном времени.
Страховой сектор готовится к новым регуляторным требованиям по управлению ИИ, которые вступят в силу в 2025 году. Компаниям предстоит создать системы прозрачности алгоритмов и управления данными.
OpenAI внедрила систему родительского контроля для ChatGPT, вызвав критику за избыточные ограничения и технические недоработки в возрастной верификации.
Hugging Face представила инструмент для сохранения человеческого контроля над автономными ИИ-агентами, позволяющий встраивать точки подтверждения в критические моменты работы ИИ-систем.