Оглавление
Платформа YouTube столкнулась с волной примитивных поддельных видео, где искусственный интеллект «оживляет» знаменитостей в провокационных ситуациях. Эти ролики, созданные с помощью доступных генеративных инструментов, намеренно вызывают возмущение для увеличения вовлеченности, пишет Wired.
Технология манипуляции
Авторы используют дешевые методы (cheapfakes): комбинируют реальные кадры с искусственно сгенерированной речью или меняют контекст сцен через базовые ИИ-инструменты вроде Descript или D-ID. Например, видео с якобы пьяным Илоном Маском или скандальным Джо Роганом собирают миллионы просмотров благодаря алгоритмам рекомендаций, продвигающим эмоциональный контент.
Экономика гнева
Мошенники монетизируют ярость через:
- Партнерские программы YouTube
- Скрытый крипто-трафик
- Рекламу сомнительных товаров
Как специалист в генеративных моделях, вижу здесь системный провал: платформы годами оптимизировали алгоритмы под вовлечение, а не достоверность. Дешевые фейки — закономерный итог. Технически они примитивны (нейросети лишь «дорисовывают» губы или жесты), но эффективны благодаря человеческой психологии. Пока метрики успеха основаны на времени просмотра, а не качестве контента, волна дезинформации будет нарастать. Решение — в пересмотре бизнес-модели, а не в гонке за детекторами.
YouTube заявляет о борьбе с нарушителями через модерацию и обновленные правила, однако эксперты сомневаются в эффективности: новые каналы появляются быстрее, чем их блокируют.
Оставить комментарий