Разговоры о том, что генеративный ИИ заменит человека в творческих профессиях, наталкиваются на жесткую математическую реальность. Исследование, результаты которого опубликовало издание Tech Xplore, подтверждает: нейросети демонстрируют высокую «индивидуальную» оригинальность, но при масштабировании выдают поразительно однообразный контент.
Эмили Венгер и Йоед Н. Кенетт в своей работе для PNAS Nexus проанализировали ответы широкого спектра LLM (включая модели семейств GPT, Llama и Gemini) и сравнили их с результатами живых респондентов. Участникам предлагались классические тесты на дивергентное мышление: например, придумать нестандартные способы использования обычных предметов или составить список максимально далеких друг от друга по смыслу существительных.
Механика предсказуемости
Эксперимент выявил любопытный парадокс. В изоляции отдельный ответ нейросети часто кажется более креативным, чем средний человеческий результат. Однако при анализе популяции ответов выяснилось, что ИИ-модели склонны группироваться в узких кластерах семантического пространства. В то время как люди демонстрируют широкий спектр ассоциаций, алгоритмы раз за разом воспроизводят одни и те же «удачные» паттерны.
Инженерная попытка решить проблему через увеличение параметра temperature (отвечающего за рандомизацию токенов) ожидаемо провалилась. С ростом вариативности нейросети быстро теряют связность и перестают соответствовать условиям задачи, превращая текст в бессмысленный набор слов. Таким образом, пространство между «шаблонным ответом» и «галлюцинаторным бредом» остается крайне узким.
Иллюзия креативности LLM — это побочный эффект их обучения на усредненных человеческих данных. Модели мастерски находят статистически оптимальные «необычные» ответы, что неизбежно ведет к интеллектуальной стагнации при массовом использовании. Мы рискуем превратить контент в бесконечный ремикс из наиболее вероятных ассоциаций, где отсутствие биологического опыта и субъектности становится непреодолимым барьером для истинной новизны. Креативность без риска — это просто качественный копирайтинг.
Стратегические риски гомогенизации
Авторы исследования подчеркивают, что проблема кроется не в архитектуре конкретной модели, а в самой природе современных языковых моделей. Отсутствие физического воплощения, личного опыта и понимания контекста делает их «творчество» лишь сложной формой интерполяции данных. Для бизнеса и индустрии медиа это означает серьезный риск деградации контента: если все начнут использовать ИИ для брейнсторминга, оригинальные идеи будут вымываться из оборота.
Опора на ИИ в создании искусства или решении инженерных задач может создать замкнутый цикл, где новые модели будут обучаться на однообразных данных своих предшественников. Это ставит под вопрос долгосрочную ценность LLM как инструмента для поиска прорывных решений, оставляя за ними роль эффективных, но предсказуемых компиляторов уже существующих знаний.
Оставить комментарий