| Llama 4 Maverick |
Мультимодальная (смесь экспертов, флагманская) |
до 1 000 000 |
17 млрд активных / ~400 млрд всего (128 экспертов) |
Мощная открытая мультимодальная модель; высокие показатели на многих тестах; ~80.5% MMLU Pro, ~69.8% GPQA Diamond, ~90% HumanEval. Рекомендуется для приложений, где важны максимальное качество и мультимодальные возможности. |
- Изначально мультимодальная (вход: текст + изображения, выход: текст)
- Открытые веса (лицензия Llama 4 Community)
- Архитектура «смесь экспертов»; эффективные 17 млрд активных параметров
- Коммерческое использование: для организаций с более чем 700 млн активных пользователей в месяц (MAU) требуется отдельное разрешение Meta
- Доступна через хостинг Meta (Llama API), DeepInfra, Together, Groq, AWS, Azure, Oracle Cloud, Cloudflare Workers AI и др.
- Интегрирована в Meta AI (WhatsApp, Messenger, Instagram, Facebook, веб и отдельное приложение Meta AI)
- Лицензия ограничивает прямое использование мультимодальных моделей Llama 4 организациями, зарегистрированными в ЕС; конечные пользователи в ЕС могут получать доступ к сервисам на базе Llama 4, развёрнутым за пределами ЕС
|
вход: $0.27; выход: $0.85 (Together.ai) |
документация |
| Llama 4 Scout |
Мультимодальная (смесь экспертов, эффективная, длинный контекст) |
до 10 000 000 (открытые веса; в типичных API 128K–~328K) |
17 млрд активных / 109 млрд всего (16 экспертов) |
Эффективная мультимодальная модель для периферии и облака; может работать на одном H100 (в квантованных режимах); в открытых весах поддерживает контекст до 10 млн токенов, при этом большинство коммерческих хостингов сейчас предлагают окна порядка 128K–328K. |
- Изначально мультимодальная (текст + изображения/документы)
- Открытые веса (лицензия Llama 4 Community)
- Оптимизирована для скорости и развёртывания на периферии и в облаке; хорошо масштабируется на H100 в int4/int8
- Коммерческие ограничения: дополнительная лицензия для организаций с более чем 700 млн активных пользователей в месяц (MAU)
- Поддержка длинного контекста активно тестируется; на практике большинство фреймворков устойчиво работают на диапазоне до ~300K–1.5 млн токенов, при 10 млн требуются специальные оптимизации и конфигурации с несколькими GPU
- Лицензия запрещает прямое использование мультимодальных моделей Llama 4 разработчиками, зарегистрированными в ЕС; конечные пользователи в ЕС могут пользоваться сервисами на базе Llama 4, развёрнутыми за пределами ЕС
|
вход: $0.18; выход: $0.59 (Together.ai) |
документация |
| Llama 4 Behemoth |
Мультимодальная (смесь экспертов, модель-учитель / сверхкрупная) |
не указано (внутренняя модель) |
288 млрд активных / ~2 трлн всего (16 экспертов) |
Сверхкрупная модель, используемая как модель-учитель для Scout/Maverick; по опубликованным тестам показывает передовые результаты на задачах STEM (82.2% MMLU Pro, 73.7% GPQA, ~88% HumanEval, ~95% MATH-500). По состоянию на март 2026 года не имеет открытых весов и недоступна для коммерческого использования. |
- Изначально мультимодальная
- Статус: внутренняя модель и ограниченная исследовательская предварительная версия; нет общедоступного API с открытыми весами
- Используется для дистилляции и обучения Llama 4 Scout/Maverick
|
не указано |
объявление |
| Meta-Llama-3.3-70B-Instruct |
Текст (открытые веса, оптимизированная) |
до 128 000–131 072 (зависит от провайдера) |
70 млрд |
Оптимизированная версия семейства 3.x; по качеству близка к Llama 3.1 405B при стоимости и задержке, характерных для 70B; 86.0% MMLU, 68.9% MMLU Pro, 88.4% HumanEval, 77.0% MATH. Фактически стала стандартной крупной текстовой моделью Llama 3.x у многих провайдеров. |
- Только текстовая модель (текст на входе / текст на выходе)
- Открытые веса (лицензия Llama 3 Community)
- Отличное соотношение цена/качество для текстовых и программных задач; для многих задач по тексту превосходит Llama 3.2 90B Vision
- Поддерживает локальный и облачный вывод моделей, контекст до ~128K
- Широко доступна через хостинг Meta, OpenRouter, DeepInfra, Together, Groq, крупные облака и др.
|
от ~$0.10 вход; от ~$0.32 выход (Meta / OpenRouter; у ряда провайдеров выше, до ~$0.88/$0.88) |
документация |
| Meta-Llama-3.1-70B-Instruct |
Текст (открытые веса) |
до 128 000 |
70 млрд |
Сбалансированная модель 70B семейства 3.1; 66.4% MMLU Pro, ~80.5% HumanEval. Постепенно вытесняется Llama 3.3 70B, но остаётся доступной в виде открытых весов и у ряда провайдеров API как устаревший вариант. |
- Локальный и облачный вывод моделей
- Модель остаётся доступной и поддерживается в экосистеме как устойчивая база для уже существующих интеграций; новые развёртывания обычно используют Llama 3.3 70B
|
бесплатно (открытые веса) или через провайдеров API |
документация |
| Meta-Llama-3.1-405B-Instruct |
Текст (открытые веса, крупная) |
до 128 000 |
405 млрд |
Крупная универсальная текстовая модель семейства 3.1; ~87.3% MMLU, ~73.3% MMLU Pro, ~89.0% HumanEval. До появления Llama 4 Behemoth рассматривалась как флагманская открытая плотная модель Meta и по-прежнему используется там, где критично качество текста при допустимой стоимости инфраструктуры. |
- Только текст; крупная плотная модель
- Коммерческое использование — по лицензии Meta Llama 3
- Доступ через партнёров (например, Oracle, Azure, AWS Bedrock) или для локального развёртывания
- Требует значительных ресурсов; для экономии обычно используется квантование и распределённый вывод
|
бесплатно (загрузка весов); платный доступ через ряд провайдеров Llama API и облака |
документация |
| Meta-Llama-3.2-90B-Vision-Instruct |
Текст + изображения (мультимодальная) |
до 128 000 |
90 млрд |
Мультимодальная модель среднего размера; поддерживает восприятие изображений и визуальное рассуждение. Всё ещё активно используется для визуальных задач, хотя часть сценариев переходит на Llama 4 Scout/Maverick. |
- Вход: текст + изображения; выход: текст
- Фокус: распознавание, визуальное рассуждение, работа с документами и графиками
- Открытые веса; готова к коммерческому использованию
- Для новых проектов часто сравнивается с Llama 4 Scout по качеству/стоимости
|
бесплатно (открытые веса); платный доступ через крупные облака и провайдеров API |
документация |
| Meta-Llama-3.2-11B-Vision-Instruct |
Текст + изображения (лёгкая мультимодальная) |
до 128 000 |
11 млрд |
Лёгкая мультимодальная модель для периферии и развёртывания на устройствах; остаётся актуальной для приложений, где Llama 4 Scout слишком тяжела. |
- Оптимизирована для мобильных и периферийных устройств; хорошо работает в квантованных форматах
- Открытые веса; поддерживается крупными провайдерами (NVIDIA, облака, шлюзы API)
|
бесплатно (открытые веса); доступ через API от ~$0.049 за 1 млн токенов у провайдеров Meta |
документация |
| Meta-Llama-3.2-3B-Instruct |
Текст (лёгкая) |
до 80 000–128 000 (зависит от хостинга) |
3 млрд |
Лёгкая текстовая модель для низкой задержки и мобильных приложений; подходит для работы на устройстве и бессерверных сценариев. |
- Поддерживает квантование и работу на устройстве
- Многоязычность на уровне Llama 3.x
- Открытые веса; официальные тарифы API Meta начинаются от ~$0.03/$0.05 за 1 млн токенов
|
~$0.03 вход; ~$0.05 выход (Meta Llama API) |
документация |
| Meta-Llama-3.2-1B-Instruct |
Текст (ультралёгкая) |
до 128 000 |
1 млрд |
Мини-модель для жёстких ограничений по ресурсам; подходит для мобильных и периферийных сценариев, где критичны энергопотребление и размер, при этом официальные карточки указывают контекст до ~128K токенов. |
- Ориентирована на мобильные устройства и микросервисы
- Лицензия Llama 3 Community; открытые веса
|
~$0.02 вход; ~$0.02 выход (Meta Llama API) |
документация |
| Llama Guard 4 |
Мультимодальный классификатор безопасности |
~160 000 |
12 млрд |
Модель безопасности для фильтрации вредоносного контента в текстовых и мультимодальных входах/выходах. Релиз весной 2025 года; используется как основная защита в стеке Llama 4 и в Llama Moderations API. |
- Мультимодальная (поддерживает анализ текста и изображений, несколько изображений за запрос)
- Плотная архитектура, получена путём «обрезки» Llama 4 Scout (удалён роутер и эксперты)
- Открытые веса, интеграция в Llama Moderations API и многие сторонние стеки безопасности
- Поддерживает таксономию категорий MLCommons; в независимых тестах блокирует порядка 60–70% наивных атак, при продвинутых целенаправленных обходах ограничений возможен взлом, поэтому рекомендуется многоуровневая защита
|
бесплатно (открытые веса; коммерческий API — от ~$0.18 за 1 млн токенов у провайдеров) |
документация |