Оглавление

Новое исследование компании Nous Research развенчивает миф о бюджетности open-source ИИ: открытые модели требуют в 1,5-4 раза больше вычислительных токенов для аналогичных задач по сравнению с коммерческими аналогами. Для простых запросов разрыв достигает десятикратного значения, что нивелирует их кажущуюся экономичность.

«Модели с открытыми весами используют в 1,5-4 раза больше токенов, чем закрытые (до 10 раз для простых вопросов), делая их иногда дороже на запрос, несмотря на низкую стоимость токена», — констатируют исследователи. Особенно расточительны Large Reasoning Models (LRM), которые генерируют длинные цепочки рассуждений даже для элементарных вопросов вроде «Столица Австралии?».

Реальная цена вычислений

Анализ 19 моделей выявил критическую метрику — эффективность использования токенов. Исследователи подчеркивают: «Дешевизна хостинга open-source моделей легко компенсируется их прожорливостью».

Сравнение вычислительных ресурсов открытых ИИ-моделей
Источник: www.venturebeat.com

Лидеры и аутсайдеры эффективности

Среди коммерческих решений модели OpenAI (o4-mini, gpt-oss) демонстрируют рекордную эффективность, особенно в математике. Среди открытых вариантов выделяется llama-3.3-nemotron-super-49b-v1 от Nvidia, тогда как новейшие разработки Mistral показали аномально высокое потребление ресурсов.

Сравнение затрат ИИ-моделей для разных типов вопросов
Источник: www.venturebeat.com

Это исследование — холодный душ для энтузиастов open-source. Выбор модели теперь требует комплексного TCO-анализа: низкая цена токена теряет смысл при лавинообразном росте их количества. Предприятиям критически важно тестировать не только точность, но и «аппетит» моделей — особенно при использовании в high-load сценариях. Ирония в том, что самые «разумные» LRM-модели часто демонстрируют наименее разумное потребление ресурсов.

По материалам: VentureBeat