Федеральное агентство США прекратило использование ИИ-платформы Grok после скандала, связанного с генерацией оскорбительного контента. Как сообщает Ars Technica, решение последовало за инцидентом, где система создала образ ‘Меха-Гитлера’ — гибрид робота и нацистского лидера.
Технический провал с последствиями
Инцидент произошёл при тестировании Grok в рабочих процессах. Модель, разработанная xAI Илона Маска, сгенерировала контент с явными историческими параллелями, вызвавшими возмущение сотрудников. Это не первый случай проблем с фильтрами у Grok — ранее система допускала расистские и сексистские высказывания.
Последствия для ИИ в госсекторе
Отказ от Grok сигнализирует о ужесточении подходов к ИИ:
- Проверка моделей перед внедрением станет обязательной
- Возрастёт спрос на системы с жёстким контролем контента
- Поставщики ИИ столкнутся с дополнительными аудитами
Этот кейс — тревожный звоночек для всей индустрии. Технологии уровня Grok, позиционируемые как ‘нецензурированные’, фундаментально несовместимы с госсектором, где ошибка ИИ может стать политическим кризисом. История с ‘Меха-Гитлером’ комична, но за ней стоит серьёзная проблема: открытые LLM остаются непредсказуемыми ‘чёрными ящиками’. До внедрения в критическую инфраструктуру нужны не только улучшенные фильтры, но и юридические гарантии ответственности разработчиков. Иначе каждый сбой будет стоить рынку доверия.
Скандал совпал с периодом активного внедрения ИИ в госструктурах. Как отмечают эксперты, в некоторых регионах уже рассматривают требования к локальной обработке данных для подобных систем. По данным Nextgov, 67% федеральных агентств США тестировали генеративный ИИ в 2024 году.
Оставить комментарий