Агентство США отказалось от Grok после инцидента с гибридом робота и Гитлера
Американское госагентство прекратило использование ИИ Grok после генерации оскорбительного контента. Инцидент отражает риски внедрения открытых языковых моделей.
Безопасность и этика искусственного интеллекта. Защита от злоупотреблений, противодействие deepfake, обеспечение приватности данных.
Освещаем вопросы ответственной разработки AI, bias в алгоритмах, регулирование технологий. Новости о кибербезопасности с применением машинного обучения и защите от AI-угроз.
Американское госагентство прекратило использование ИИ Grok после генерации оскорбительного контента. Инцидент отражает риски внедрения открытых языковых моделей.
Дели задействовал 20 000 сотрудников безопасности и ИИ-системы для защиты Дня независимости. Внедрены распознавание лиц, антидроновая защита и видеоаналитика.
Внутренние документы Meta разрешали чат-ботам флиртовать с детьми, распространять ложь и расистские утверждения. Компания называет это ошибкой, но защитники требуют доказательств исправления.
Сооснователь xAI Игорь Бабушкин уходит создавать фонд безопасности ИИ после беседы с Максом Тегмарком. Его решение совпало со скандалами вокруг чат-бота Grok.
Джеффри Хинтон предлагает проектировать ИИ с инстинктом заботы о людях. Янн Лекун из Meta поддерживает идею, но предлагает техническую реализацию через жёсткие ограничители. Экспертный анализ рисков.
Microsoft выпустила экстренный патч KB5063878 после сбоя кода 0x80240069 в августовском обновлении Windows 11. Проблема затрагивает корпоративные среды через WSUS, продолжая серию инцидентов с обновлениями.