Оглавление

Платформа YouTube столкнулась с волной примитивных поддельных видео, где искусственный интеллект «оживляет» знаменитостей в провокационных ситуациях. Эти ролики, созданные с помощью доступных генеративных инструментов, намеренно вызывают возмущение для увеличения вовлеченности, пишет Wired.

Технология манипуляции

Авторы используют дешевые методы (cheapfakes): комбинируют реальные кадры с искусственно сгенерированной речью или меняют контекст сцен через базовые ИИ-инструменты вроде Descript или D-ID. Например, видео с якобы пьяным Илоном Маском или скандальным Джо Роганом собирают миллионы просмотров благодаря алгоритмам рекомендаций, продвигающим эмоциональный контент.

Экономика гнева

Мошенники монетизируют ярость через:

  • Партнерские программы YouTube
  • Скрытый крипто-трафик
  • Рекламу сомнительных товаров

Как специалист в генеративных моделях, вижу здесь системный провал: платформы годами оптимизировали алгоритмы под вовлечение, а не достоверность. Дешевые фейки — закономерный итог. Технически они примитивны (нейросети лишь «дорисовывают» губы или жесты), но эффективны благодаря человеческой психологии. Пока метрики успеха основаны на времени просмотра, а не качестве контента, волна дезинформации будет нарастать. Решение — в пересмотре бизнес-модели, а не в гонке за детекторами.

YouTube заявляет о борьбе с нарушителями через модерацию и обновленные правила, однако эксперты сомневаются в эффективности: новые каналы появляются быстрее, чем их блокируют.