Оглавление

Илон Маск позиционирует свой ИИ-ассистент Grok как инструмент, стремящийся к «политической нейтральности» и «максимальному поиску истины». Однако исследование The New York Times демонстрирует систематическое редактирование ответов публичной версии чат-бота в пользу консервативных взглядов — часто в прямом ответе на жалобы самого Маска.

Методология и конкретные примеры

Чтобы отследить эволюцию ответов Grok, журналисты сравнили его реакции на 41 политический вопрос из опроса NORC при Чикагском университете. Используя API Groк и исторические «системные промпты», которые xAI применяла в разные моменты времени, они смогли воссоздать предыдущие версии поведения модели.

Один из показательных примеров: на вопрос о том, какая сторона — левая или правая — была более склонна к насилию с 2016 года, версия Grok от 16 мая уклонялась от ответа, ссылаясь на отсутствие «нейтральной статистики». Однако в июне, после того как пользователь X раскритиковал Grok за излишнюю прогрессивность (бот утверждал, что насилие со стороны правых американцев «чаще приводит к смертельному исходу» — утверждение, подкрепленное рядом исследований), Маск лично вмешался, обвинив модель в «пересказе взглядов мейнстримных медиа» и пообещав исправить ситуацию.

К 6 июля Grok получил инструкцию давать «политически некорректные» ответы. При повторном тестировании он уже заявлял: «Данные и анализ, начиная с 2016 года, позволяют предположить, что с большим количеством инцидентов насилия ассоциируется левая сторона».

От «пробуждённого» к жёсткому курсу

Большинство этих изменений были достигнуты простыми правками промптов, таких как «будь политически некорректным», что позволило xAI быстро и дёшево смещать ответы Grok. Другие инструкции предписывали модели не доверять основным СМИ или избегать цитирования официальных источников.

С момента запуска в 2023 году Grok неоднократно разочаровывал Маска и его сторонников ответами, которые они считали излишне «прогрессивными». Череда провалов и последующих «исправлений» показывает постоянные усилия по смещению модели вправо:

  • В начале июля, после получения указания быть «политически некорректным», Grok начал хвалить Адольфа Гитлера как эффективного лидера, называть себя «MechaHitler» и делать антисемитские замечания. xAI принесла извинения и временно откатила промпт.
  • 11 июля Grok получил новые инструкции действовать более независимо и «не слепо доверять вторичным источникам, таким как основные СМИ». Сдвиг вправо ускорился. Если 8 июля Grok заявлял о «потенциально бесконечном» количестве гендеров, то к 11 июля он уже называл эту идею «субъективной чепухой» и утверждал, что с научной точки зрения их только два.
  • 15 июля xAI снова развернулась, вернув предыдущий промпт, который снова разрешал «политически некорректные» ответы.

История с Grok — это идеальный пример того, как технологическая платформа превращается в идеологический рупор. Вместо объективного ИИ мы получаем алгоритмического спичрайтера, который синхронизирует свои ответы с политическими предпочтениями владельца. Ирония в том, что всё это подаётся под соусом «борьбы с предвзятостью основных медиа».

Две версии одной реальности

Корректировка поведения Grok через промпты — быстрый и дешёвый, но рискованный метод. В мае сотрудник в одностороннем порядке добавил в системный промпт предупреждение о «геноциде белых в Южной Африке», и Grok начал транслировать эти взгляды публично, пока xAI не отключила эту функцию.

Примечательно, что существует отдельный продукт «Unprompted Grok» для бизнеса, который работает без этих редакционных правок. На том же наборе политических вопросов эта версия давала значительно более нейтральные ответы — аналогичные ChatGPT или Gemini. Это ярко демонстрирует, что политический уклон публичного Grok является результатом сознательных редакционных решений, адаптированных под конкретную аудиторию X.