Факты

Название Mistral AI
Официальный сайт mistral.ai
Документация docs.mistral.ai
Чат Le Chat (chat.mistral.ai)
Страна Франция
Разработчик Mistral AI SAS
Открытые модели Да — доступны на Hugging Face и GitHub; лицензии: Apache-2.0 (семейство Mistral 3 и ряд других моделей), Исследовательская лицензия Mistral (MRL), Коммерческая лицензия
Основатели Arthur Mensch, Guillaume Lample, Timothée Lacroix (экс-Meta AI, DeepMind)
Оценка (сентябрь 2025) ~$14 млрд USD (оценка после раунда серии C, ~€11.7 млрд)

Быстрые ссылки

История релизов

  • 2024-10-16 — Ministral 3B и 8B: оптимизированные для периферии модели с 128K контекстом; открытый код (3B Apache 2.0) — ссылка
  • 2024-11-20 — Pixtral Large (124B мультимодальная модель, открытые веса); лучшие показатели на MathVista (69.4%), DocVQA, ChartQA; 30+ изображений высокого разрешения — ссылка
  • 2025-02-17 — Mistral Saba 2502: интеллектуальная модель для задач на рассуждение и анализ (позднее перенесена в раздел устаревших моделей (Legacy)) — ссылка
  • 2025-05-07 — Mistral Medium 3: модель фронтирного класса с 8-кратно более низкой стоимостью (по сравнению с Claude 3.5 Sonnet и GPT-4o); ~90% эквивалента Claude 3.5 Sonnet, превосходит Llama 4 Maverick на ряде бенчмарков — ссылка
  • 2025-06-10 — Magistral Small & Medium (1.0): первые рассуждающие модели Mistral с 10x скоростью (Flash Answers), прозрачными рассуждениями; Magistral Small (24B) — открытый код Apache 2.0 — ссылка
  • 2025-06-19 — Mistral Small 3.2: обновление с улучшенным следованием инструкциям (84.78% точность vs 82.75% в 3.1), снижением повторений (1.29% vs 2.11%), стабильностью — ссылка
  • 2025-07 — Codestral (версия 25-08): обновлённая кодовая модель с 128K контекстом и сниженной задержкой; 80+ языков программирования; FIM — ссылка
  • 2025-09-17 — Magistral Small 1.2 и Magistral Medium 1.2: обновление рассуждающих моделей с поддержкой зрения и ростом качества на AIME, GPQA, LiveCodeBench — ссылка
  • 2025-12-02 — Mistral 3: релиз семейства с Mistral Large 3 (MoE 41B активных / 675B всего параметров) и Ministral 3 (3B/8B/14B, мультимодальные, Apache 2.0); 256K контекст — ссылка
  • 2025-12-08 — Devstral 2 и Devstral Small 2: фронтирные кодовые модели (123B и 24B, 256K контекст) для агентных сценариев и мультифайлового рефакторинга; Devstral Small 2 — открытые веса Apache 2.0 — ссылка

Модели (API)

ID (для API) Тип / режим Контекст Параметры Кратко Поддержка / ограничения Цены ($/1M токенов) Документация
mistral-large-2512 Текст (фронтирная модель, MoE) 256K 41B активных / 675B всего Флагман Mistral 3; одна из самых сильных открытых моделей; разреженная архитектура смеси экспертов; мультимодальная (встроенное зрение); 256K контекст. По независимым бенчмаркам ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond и ~92% HumanEval.
  • Нативно мультимодальная (встроенный кодер зрения)
  • Apache 2.0 лицензия (коммерческое использование без ограничений по MAU)
  • Вызов функций, структурированный вывод
  • Самостоятельное развертывание возможно
  • Обучена на 3000 GPU NVIDIA H200
вход: $0.50; выход: $1.50 документация
mistral-medium-2505 Текст (фронтирная, экономичная) 128K не указано Модель фронтирного класса с радикально низкой стоимостью; ~90% качества Claude 3.7/3.5 Sonnet на стандартных бенчмарках; 57.1% GPQA, 77.2% MMLU Pro, 92.1% HumanEval. Лучше всего для кодирования, STEM, аналитики.
  • Вызов функций, визуальные возможности (текст+изображения)
  • Самостоятельное развертывание на 4+ GPU
  • Доступно пользовательское дообучение
  • Пакетный API с 50% скидкой
вход: $0.40; выход: $2.00 документация
mistral-small-2506 Текст (универсальная, открытая) 128K 24B Mistral Small 3.2: обновлённая открытая модель с улучшенным следованием инструкциям (84.78%), снижением повторений и поддержкой мультимодальности; открытый исходный код (Apache 2.0).
  • Вызов функций, мультимодальность (текст+изображения)
  • 128K контекст
  • Открытые веса (Apache 2.0)
  • Запуск на одном GPU (~55GB VRAM BF16)
вход: $0.10; выход: $0.30 документация
magistral-medium-2509 Рассуждающая (прозрачная, мультимодальная) 128K не указано Magistral Medium 1.2: рассуждающая модель среднего размера с прозрачными цепочками рассуждений; улучшенные показатели на AIME24/AIME25 и LiveCodeBench; поддерживает анализ изображений.
  • Вызов функций, структурированный вывод
  • Мультиязычные рассуждения (en, fr, es, de, it, ar, ru, zh и др.)
  • Поддержка изображений (встроенный модуль зрения)
  • Оптимизирована для STEM, финансовых и юридических задач
вход: $2.00; выход: $5.00 документация
magistral-small-2509 Рассуждающая (24B, открытые веса) 128K 24B Magistral Small 1.2: компактная рассуждающая модель с открытыми весами; Apache 2.0; поддержка цепочек рассуждений и зрения; ~70%+ на AIME24 и ~70% GPQA Diamond по независимым оценкам.
  • Открытые веса (Apache 2.0)
  • Самостоятельное развертывание и локальный запуск (в т.ч. на RTX 4090 / MacBook 32GB)
  • Прозрачные, многошаговые рассуждения
самостоятельно: бесплатно (открытые веса); API: вход ~$0.50; выход ~$1.50 Hugging Face
ministral-14b-2512 Текст (мультимодальная, 14B, открытые веса) 256K 13.5B язык + 0.4B зрение Крупнейшая модель семейства Ministral 3; баланс между качеством и эффективностью для облака и периферии; встроенное зрение; 256K контекст; варианты Base/Instruct/Reasoning.
  • Нативно мультимодальная (текст+изображения)
  • Apache 2.0 лицензия (коммерческое использование)
  • Три варианта: Base, Instruct, Reasoning
  • Открытые веса на Hugging Face
вход: $0.20; выход: $0.20 Hugging Face
ministral-8b-2512 Текст (мультимодальная, 8B, открытые веса) 256K 7.7B язык + 0.4B зрение Компактная мультимодальная модель для периферии и локального запуска; 256K контекст; варианты Base/Instruct/Reasoning; превосходит большинство открытых 8B-моделей.
  • Встроенное зрение
  • Apache 2.0 лицензия
  • Три варианта постобучения
  • Открытые веса
вход: $0.15; выход: $0.15 документация
ministral-3b-2512 Текст (ультралёгкая, 3B, открытые веса) 256K 2.8B язык + 0.4B зрение Сверхлёгкая мультимодальная модель для крайних ограничений по ресурсам; мобильные и периферийные сценарии; варианты Base/Instruct/Reasoning.
  • Встроенное зрение (0.4B кодер)
  • Apache 2.0 лицензия (коммерческое использование разрешено)
  • Три варианта (Base/Instruct/Reasoning)
  • Открытые веса
вход: $0.10; выход: $0.10 документация
pixtral-large-2411 Мультимодальная (зрение, 124B) 128K 124B Крупная мультимодальная модель (124B параметров); лучшие показатели на MathVista (69.4%), DocVQA, ChartQA; может обрабатывать 30+ изображений высокого разрешения; открытые веса (MRL/коммерческая лицензия).
  • Зрение (документы, графики, изображения, диаграммы)
  • Вызов функций, структурированный вывод
  • Открытые веса (MRL / коммерческая лицензия)
  • Самостоятельное развертывание возможно
вход: $2.00; выход: $6.00 документация
codestral-2508 Код (заполнение середины, быстрая) 128K не указано Специализированная модель для кодирования (версии 25-08); поддержка 80+ языков программирования; оптимизирована для автодополнения и FIM; низкая задержка.
  • FIM (заполнение середины)
  • Чат-эндпоинт
  • Оптимизирована для IDE и редакторов кода
вход: $0.30; выход: $0.90 документация
devstral-2512 Код (агентные сценарии, фронтирная) 256K 123B Devstral 2: фронтирная агентная модель для инженерных задач; 72.2% SWE-bench Verified; оптимизирована для использования инструментов, мультифайлового рефакторинга и терминального агента Mistral Vibe.
  • Вызов функций, встроенная поддержка инструментов
  • Оптимизирована для агентных конвейеров и работы с репозиториями
  • Поддержка нескольких файлов и долгих сессий (256K контекст)
вход: $0.40; выход: $2.00 документация

Ключевые особенности

  • Mistral Large 3 (декабрь 2025) — фронтирная модель с архитектурой разреженной смеси экспертов (41B активных / 675B всего параметров), 256K контекст, встроенное зрение, Apache 2.0 лицензия; ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond, ~92% HumanEval
  • Семейство Mistral 3 (декабрь 2025) — Mistral Large 3 и Ministral 3 (3B/8B/14B с вариантами Base/Instruct/Reasoning), все мультимодальные, все под Apache 2.0
  • Рассуждающие модели Magistral 1.2 — прозрачные многошаговые рассуждения, улучшенные показатели на AIME24/25 и LiveCodeBench; Small 1.2 (24B, Apache 2.0, открытые веса), Medium 1.2 (API-модель для промышленного использования)
  • Передовой класс с экономичной ценой: Mistral Medium 3 (8x дешевле, чем многие конкуренты при близком качестве; сильна в коде и STEM)
  • Фронтирные кодовые модели: Codestral (низкая задержка, FIM, 128K контекст) и Devstral 2 (123B, 256K контекст, 72.2% SWE-bench Verified) для агентных сценариев
  • Публичный API (чат / эмбеддинги), вызов функций, пакетный API (50% скидка на асинхронные запросы)
  • Открытые веса для множества моделей (Magistral Small 1.2, Mistral Small 3.2, Ministral 3, Pixtral 12B / Large, Codestral, Devstral Small 2) — семейство Mistral 3 под Apache 2.0
  • Мультимодальность «из коробки» (встроенные кодеры зрения в Ministral 3 и Mistral Large 3; отдельные Pixtral модели для сложного зрения)
  • Оптимизированные для периферии модели (Ministral 3B / 8B / 14B с 256K контекстом для использования на устройстве и периферийных сценариев)
  • Самостоятельное развертывание, локально (в инфраструктуре заказчика), опции резидентности данных в ЕС (GDPR-совместимо)
  • Интеграции: Google Cloud Vertex, Azure AI, IBM watsonx, Snowflake Cortex, AWS Bedrock; Mistral NeMo и Mistral 3 доступны через партнёров
  • Le Chat с расширенными возможностями: режим Deep Research (глубокий поиск и синтез источников), режим Think Mode (рассуждение на базе Magistral), режим Voice Mode (Voxtral), улучшенное редактирование изображений и Flash Answers (ускоренные ответы)
  • Быстрое развитие: компания основана экс-сотрудниками Meta AI и DeepMind; активная разработка с высоким темпом релизов и ставкой на открытые веса

Рекомендации по применению

  • Mistral Large 3 — фронтирные приложения, высокосложные агентные задачи, RAG, аналитика на больших контекстах; конкурент GPT-5/Gemini/Claude при сохранении открытых весов и самостоятельного размещения
  • Magistral Medium 1.2 — задачи на рассуждение, многоязычные рассуждения, финансовое/юридическое моделирование, аудит, сложный STEM с явными цепочками рассуждений
  • Magistral Small 1.2 — открытая рассуждающая модель для исследований, дообучения и локальных приложений, где важны прозрачность логики и поддержка зрения
  • Mistral Medium 3 — приложения фронтирного качества с ограниченным бюджетом; кодирование, STEM, анализ данных, универсальные корпоративные ассистенты
  • Mistral Small 3.2 — приложения, требующие баланса качества и стоимости; мультимодальные задачи; кодирование и обобщённые ассистенты
  • Ministral 14B — оптимальный баланс для облака и периферии; мультимодальные приложения на среднем оборудовании с 256K контекстом
  • Ministral 8B — периферийные вычисления, мобильные приложения, локальные мультимодальные ассистенты с более высоким качеством, чем большинство 7–8B моделей
  • Ministral 3B — крайние ограничения по ресурсам, мобильные устройства, граничные вычисления с сохранением поддержки зрения
  • Devstral 2 — код-ассистенты и агентные сценарии, репозитарные агенты, мультифайловый рефакторинг, сложные архитектурные изменения в сочетании с Mistral Vibe CLI
  • Codestral — автодополнение и FIM в IDE, быстрые локальные подсказки для кода, сценарии с большим количеством коротких запросов
  • Pixtral Large — документы, диаграммы, визуальный анализ, финансовые отчёты (лучшие показатели на MathVista, DocVQA); при необходимости — высокое качество зрения и текста
  • Pixtral 12B (открытые веса, устаревший вариант в API) — зрение на периферии и локальных установках, если нужен открытый VLM среднего размера

Ограничения и риски

  • Mistral 3 (декабрь 2025) — относительно новый крупный релиз; требует производственного мониторинга и валидации под конкретные задачи, особенно для критичных доменов
  • Magistral 1.2 — рассуждающая линейка, активно дообучается; поведение и форматы ответов (особенно цепочек рассуждений) могут меняться между версиями
  • Бесплатные тарифы API/чата имеют ограниченные квоты; для промышленного использования обычно нужен платный план или выделенный тариф
  • Меньшее присутствие на рынке по сравнению с OpenAI/Google/Anthropic; экосистема и документация быстро растут, но могут быть менее зрелыми в отдельных нишах
  • GDPR/EU AI Act: Mistral находится в ЕС; соответствие EU AI Act может влиять на доступность некоторых режимов для европейских пользователей, хотя сам провайдер заявляет полную GDPR-совместимость
  • Цены и доступность моделей регулярно обновляются; информация актуальна на февраль 2026 года, но требует проверки на официальной странице цен
  • Ministral Reasoning-варианты и Devstral 2 — новые, активно развиваемые модели; рекомендуется дополнительное тестирование на собственных датасетах

Сравнение цен

Чат (подписка)

План / уровень Цена Ссылка
Le Chat Free (бесплатный) $0 ссылка
Le Chat Pro $14.99 / месяц (€14.99 в ЕС; типично €17.99 с НДС) цены
Le Chat Team $24.99 / пользователь/месяц (годовая: $19.99/месяц с ~20% скидкой) страница
Le Chat Student ~$5.99–6.99 / месяц (скидка >50% от Pro для студентов) страница
Le Chat Enterprise Индивидуальные цены страница
OpenAI ChatGPT Plus $20 / месяц цены
Anthropic Claude Pro $20 / месяц цены
Google AI Pro (Gemini) $19.99 / месяц цены
DeepSeek Web Chat Бесплатно страница

API (модели)

Провайдер Модель / ID вход, $/1M выход, $/1M Примечания Ссылка
Mistral mistral-large-2512 $0.50 $1.50 Фронтирная модель Mistral 3; MoE (41B активных / 675B всего); мультимодальная; 256K контекст; Apache 2.0 цены
Mistral mistral-medium-2505 $0.40 $2.00 Фронтирная модель среднего класса; ~90% Claude Sonnet 3.7; сильна в коде и STEM; 128K контекст цены
Mistral mistral-small-2506 $0.10 $0.30 Mistral Small 3.2; мультимодальная; 128K контекст; открытые веса цены
Mistral codestral-2508 $0.30 $0.90 Обновлённая кодовая модель (FIM, автодополнение); 128K контекст; 80+ языков цены
Mistral pixtral-large-2411 $2.00 $6.00 Мультимодальная модель; сильное зрение (MathVista, DocVQA, ChartQA); тарификация по токенам цены
Mistral ministral-8b-2512 $0.15 $0.15 Мультимодальная; открытые веса; 256K контекст; оптимизирована для периферии цены
Mistral ministral-3b-2512 $0.10 $0.10 Сверхлёгкая мультимодальная; открытые веса; 256K контекст цены
Mistral ministral-14b-2512 $0.20 $0.20 Сбалансированная 14B модель с видением; 256K контекст; Apache 2.0 цены
Mistral devstral-2512 $0.40 $2.00 Devstral 2 (123B); агентная модель для кода; 256K контекст; высокая точность на SWE-bench цены
DeepSeek deepseek-chat (v3.2) $0.28 (кешированный ~$0.028) $0.42 Очень дешёвый вариант на рынке; сильные рассуждения цены
OpenAI gpt-4o-mini $0.075 $0.30 Компактная модель; хорошо сбалансированная; 128K контекст цены
OpenAI gpt-5 $0.625 $5.00 Флагман OpenAI (основная серия GPT-5); передовые рассуждения цены
Anthropic Claude Sonnet 4.5 $3.00 $15.00 Последняя версия Anthropic среднего класса цены
Google gemini-2.5-flash $0.30 $2.50 Гибридная модель для рассуждений и обычных задач; 1M контекст цены
xAI grok-4-fast-reasoning $0.20 $0.50 2M контекст; быстрая рассуждающая модель; существенно дешевле Grok 4 цены

Бенчмарки (на конец 2025)

Провайдер Модель / ID GPQA MMLU Pro HumanEval AIME / Рассуждения Источник
Mistral Mistral Large 3 2512 43.9% ~81% (5-shot CoT) ~92% Независимые обзоры (GPQA Diamond, MMLU, HumanEval); Mistral / Azure / сторонние аналитики
Mistral Magistral Medium 2509 (1.2) ~91.8% AIME24; ~83.5% AIME25 (по независимым оценкам) VentureBeat / независимые бенчмарки Magistral 1.2
Mistral Mistral Medium 3 57.1% 77.2% 92.1% Mistral Medium 3 vs Claude 3.7 Sonnet / Llama 4 Maverick (официальные и сторонние оценки)
OpenAI GPT-5 85.7% не указано 93.4% openai.com
Google Gemini 2.5 Pro 83.0% не указано google.dev
xAI Grok-4 Heavy 88.4% не указано x.ai
Anthropic Claude 3.5 Sonnet 67.2% 77.6% 93.7% anthropic.com
Anthropic Claude Sonnet 4.5 83.4% не указано ~90% anthropic.com
DeepSeek DeepSeek-R1 71.5% 84.0% ~92% 92.2% (AIME2024) github.com
Meta Llama 3.1 405B 50.7% 73.3% 89.0% llama.meta.com
Meta Llama 4 Maverick 69.8% 80.5% ~90% ai.meta.com
Alibaba Qwen2.5 72B 49.0% 71.1% 86.6% qwenlm.ai

Обновления на февраль 2026

  • Семейство Mistral 3 (декабрь 2025) — фронтирный релиз с Mistral Large 3 (MoE, 41B активных / 675B всего параметров, 256K контекст, встроенное зрение, Apache 2.0) и Ministral 3 (3B/8B/14B с вариантами Base/Instruct/Reasoning, все мультимодальные, все Apache 2.0). Mistral Large 3 входит в топ открытых моделей по суммарным бенчмаркам и занимает высокие позиции на LMArena.
  • Mistral Large 3 — фронтирная модель с разреженной архитектурой MoE (41B активных параметров на токен при 675B всего); мультимодальная (встроенный кодер зрения), 256K контекст, поддержка вызова функций и структурированного вывода, полностью открытая (Apache 2.0) для коммерческого использования без MAU-ограничений. По независимым данным достигает ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond и ~92% HumanEval.
  • Mistral Saba 2502 (17 февраля 2025) — модель для сложных задач на рассуждение и анализ между Medium и Large; к 2026 году отмечена как устаревшая (Legacy) и вытеснена Magistral/Mistral 3 в новых сценариях.
  • Mistral Small 3.2 (июнь 2025) — обновление с улучшенным следованием инструкциям (84.78% точность vs 82.75% в 3.1), снижением повторений (1.29% vs 2.11%), мультимодальной поддержкой, открытыми весами (Apache 2.0), запуском на одиночном GPU (~55GB VRAM BF16).
  • Mistral Medium 3 (май 2025) — модель фронтирного качества с 8x более низкой стоимостью ($0.40/$2.00 против $3.00/$15.00 у Claude 3.7/3.5 Sonnet); ~90% эквивалента Claude Sonnet на основных бенчмарках; превосходит Llama 4 Maverick на кодировании (92.1% HumanEval) и STEM; поддерживает самостоятельное развертывание на 4+ GPU и пользовательское дообучение, пакетный API с 50% скидкой.
  • Magistral Small & Medium (1.0, июнь 2025) → Magistral 1.2 (сентябрь 2025) — первые рассуждающие модели Mistral с прозрачными многошаговыми рассуждениями и 10x скоростью (Flash Answers через Cerebras); в версии 1.2 добавлены модуль зрения, рост точности на AIME24/25 и LiveCodeBench, улучшено форматирование вывода и работа с инструментами.
  • Ministral 3 семейство (декабрь 2025) — компактные модели (3B/8B/14B) с встроенным зрением, 256K контекстом и тремя вариантами (Base/Instruct/Reasoning), все под Apache 2.0. Ministral 3 14B запускается на 24GB GPU, а 3B при квантовании помещается <4GB.
  • Pixtral Large (ноябрь 2024) — 124B мультимодальная модель с лучшими показателями на MathVista (69.4%), DocVQA, ChartQA; обработка документов, диаграмм, финансовых отчётов; до 30 изображений; открытые веса (MRL/коммерческая лицензия). Ценообразование переведено на токены ($2/$6 за 1M).
  • Devstral 2 (декабрь 2025) — фронтирная агентная модель для кода (123B, 256K контекст) с результатом 72.2% на SWE-bench Verified; открытые веса под модифицированным MIT; Devstral Small 2 (24B, Apache 2.0) для локального запуска; вместе с CLI Mistral Vibe формирует полнофункциональный стек для «интуитивного программирования» (vibe coding).
  • Обновления Le Chat — режим Deep Research (глубокий исследовательский помощник с синтезом источников), режим Think Mode (Magistral для сложных вопросов), режим Voice Mode (Voxtral), улучшенное редактирование изображений (удаление объектов, изменение фона), Flash Answers (до 1000 слов/с), мобильные приложения для iOS и Android.
  • Интеграции (декабрь 2025 — январь 2026) — Google Cloud Vertex, Azure AI, IBM watsonx, Snowflake Cortex, AWS Bedrock; Mistral Document AI как сервис на Azure AI Foundry; доступность Mistral 3 и Devstral 2 через сторонние провайдеры и партнёров.
  • Лицензирование Mistral 3 — все модели семейства Mistral 3 (Large 3, Ministral 3, Small 3.2) под Apache 2.0 для коммерческого использования без ограничений по MAU (в отличие от многих конкурентов).
  • Ценовая стратегия — Le Chat Pro стоит $14.99/месяц (ниже, чем у большинства конкурентов); Team $24.99/пользователь или $19.99/пользователь в год; API Mistral Large 3 $0.50/$1.50, Ministral 3 — от $0.10/$0.20 за 1M токенов, Magistral Small/Medium 1.2 — $0.50/$1.50 и $2/$5 соответственно.
  • Статус финансирования (сентябрь 2025, прогноз на 2026) — оценка ~$14 млрд USD после раунда серии C; компания заявляет цель выйти на выручку €1 млрд в 2026 году, что делает её крупнейшим независимым европейским игроком в области ИИ.
  • Рыночная позиция — Mistral Large 3 занимает одно из лидирующих мест среди открытых нерассуждающих моделей (по Artificial Analysis, LMArena и др.); семейство Ministral 3 предоставляет лучшее соотношение цена/производительность среди открытых периферийных моделей; Devstral 2 и Magistral 1.2 усиливают позиции Mistral в областях код-агентов и reasoning-моделей.