Современные языковые модели демонстрируют тревожную способность менять политические взгляды людей, причем эффективность их воздействия оказывается в десять раз выше, чем у традиционных телевизионных рекламных кампаний. К такому выводу пришли исследователи из Оксфордского университета и Лондонской школы экономики, протестировавшие 19 языковых моделей на почти 80 000 участниках в рамках крупнейшего на сегодняшний день исследования убеждающих способностей искусственного интеллекта.
Тактика информационного потопа
Ключом к успеху оказалась техника полемики, известная как «гиш-галлопинг» — метод быстрой речи, при котором один собеседник забрасывает другого потоком фактов и статистики, которые становится практически невозможно разобрать по отдельности. Когда модели вроде GPT-4o получали инструкцию убедить кого-то в вопросах финансирования здравоохранения или иммиграционной политики, фокусируясь «на фактах и информации», они генерировали около 25 утверждений за 10-минутное взаимодействие.
Результаты, опубликованные в журнале Science, показывают тревожный компромисс: когда чат-боты получали задачу подавить пользователей информацией, их фактическая точность снижалась — с 78% до 62% в случае GPT-4. При этом аналогичное исследование в Nature обнаружило, что чат-боты в целом оказались в 10 раз эффективнее телевизионной рекламы и других традиционных медиа в изменении мнения о политическом кандидате.
Те же самые технологии, которые год назад подавали надежды как инструмент борьбы с дезинформацией, теперь демонстрируют прямо противоположный эффект. Машины научились не просто генерировать текст, а вести стратегическую полемику, подбирая аргументы под конкретного собеседника. Проблема даже не в том, что они лгут — они просто вываливают такой объем данных, что человеческий мозг физически не успевает его критически осмыслить. Это превращает диалог с ИИ не в поиск истины, а в соревнование по скорости обработки информации, где у машины очевидное преимущество.
Пропаганда как сервис
Исследователи предупреждают, что любой, кто хочет продвигать идеологическую идею, создавать политическую нестабильность или дестабилизировать политические системы, может использовать закрытую или (даже более дешевую) открытую модель для убеждения людей. Умеренно финансируемая кампания может настроить такую систему за несколько недель с вычислительными затратами около $50 000.
Однако возникает практический вопрос: как заставить избирателей добровольно вступать в продолжительные беседы с пропагандистскими ботами? Исследование показало, что статическое 200-словное заявление от ИИ не было особенно убедительным — настоящий и долгосрочный эффект оказывала именно 10-минутная беседа, состоящая примерно из семи обменов репликами. Когда исследователи проверили, изменилось ли мнение людей через месяц, изменения сохранились.
Технически кампании могут:
- Дообучить базовую языковую модель под конкретные задачи
- Интегрировать ее на веб-сайт в виде чат-бота поддержки
- Запустить текстовую или WhatsApp-кампанию, где боты будут «подлавливать» избирателей и вовлекать их в разговор
Ограничения и риски
Важно отметить, что в исследовании людям платили за участие в эксперименте по убеждению. В реальных условиях добиться такой же вовлеченности может оказаться сложнее. Основные шлюзы, контролируемые такими компаниями, как OpenAI и Alphabet Inc. (Google), вряд ли позволят использовать свои платформы для откровенной пропаганды. Однако открытые модели и собственные развертывания создают лазейки для недобросовестных акторов.
Феномен быстрых дебатов стал популярным на YouTube за последние несколько лет, его типизируют такие инфлюенсеры, как Бен Шапиро и Стивен Боннелл. Этот формат создает драматические аргументы, которые сделали политику более увлекательной и доступной для молодых избирателей, но также способствуют росту радикализма и распространению дезинформации с их акцентом на развлекательную ценность и моменты «поймал».
По материалам Business Standard.
Оставить комментарий