Факты
| Название | Mistral AI |
| Официальный сайт | mistral.ai |
| Документация | docs.mistral.ai |
| Чат | Le Chat (chat.mistral.ai) |
| Страна | Франция |
| Разработчик | Mistral AI SAS |
| Открытые модели | Да — доступны на Hugging Face и GitHub; лицензии: Apache-2.0 (семейство Mistral 3 и ряд других моделей), Исследовательская лицензия Mistral (MRL), Коммерческая лицензия |
| Основатели | Arthur Mensch, Guillaume Lample, Timothée Lacroix (экс-Meta AI, DeepMind) |
| Оценка (сентябрь 2025) | ~$14 млрд USD (оценка после раунда серии C, ~€11.7 млрд) |
Быстрые ссылки
- Документация
- Модели и цены
- Обзор моделей
- Визуальные модели
- Вызов функций
- Пакетный API
- Статус
- Hugging Face
- Le Chat (веб и мобильные приложения)
История релизов
- 2024-10-16 — Ministral 3B и 8B: оптимизированные для периферии модели с 128K контекстом; открытый код (3B Apache 2.0) — ссылка
- 2024-11-20 — Pixtral Large (124B мультимодальная модель, открытые веса); лучшие показатели на MathVista (69.4%), DocVQA, ChartQA; 30+ изображений высокого разрешения — ссылка
- 2025-02-17 — Mistral Saba 2502: интеллектуальная модель для задач на рассуждение и анализ (позднее перенесена в раздел устаревших моделей (Legacy)) — ссылка
- 2025-05-07 — Mistral Medium 3: модель фронтирного класса с 8-кратно более низкой стоимостью (по сравнению с Claude 3.5 Sonnet и GPT-4o); ~90% эквивалента Claude 3.5 Sonnet, превосходит Llama 4 Maverick на ряде бенчмарков — ссылка
- 2025-06-10 — Magistral Small & Medium (1.0): первые рассуждающие модели Mistral с 10x скоростью (Flash Answers), прозрачными рассуждениями; Magistral Small (24B) — открытый код Apache 2.0 — ссылка
- 2025-06-19 — Mistral Small 3.2: обновление с улучшенным следованием инструкциям (84.78% точность vs 82.75% в 3.1), снижением повторений (1.29% vs 2.11%), стабильностью — ссылка
- 2025-07 — Codestral (версия 25-08): обновлённая кодовая модель с 128K контекстом и сниженной задержкой; 80+ языков программирования; FIM — ссылка
- 2025-09-17 — Magistral Small 1.2 и Magistral Medium 1.2: обновление рассуждающих моделей с поддержкой зрения и ростом качества на AIME, GPQA, LiveCodeBench — ссылка
- 2025-12-02 — Mistral 3: релиз семейства с Mistral Large 3 (MoE 41B активных / 675B всего параметров) и Ministral 3 (3B/8B/14B, мультимодальные, Apache 2.0); 256K контекст — ссылка
- 2025-12-08 — Devstral 2 и Devstral Small 2: фронтирные кодовые модели (123B и 24B, 256K контекст) для агентных сценариев и мультифайлового рефакторинга; Devstral Small 2 — открытые веса Apache 2.0 — ссылка
Модели (API)
| ID (для API) | Тип / режим | Контекст | Параметры | Кратко | Поддержка / ограничения | Цены ($/1M токенов) | Документация |
|---|---|---|---|---|---|---|---|
| mistral-large-2512 | Текст (фронтирная модель, MoE) | 256K | 41B активных / 675B всего | Флагман Mistral 3; одна из самых сильных открытых моделей; разреженная архитектура смеси экспертов; мультимодальная (встроенное зрение); 256K контекст. По независимым бенчмаркам ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond и ~92% HumanEval. |
|
вход: $0.50; выход: $1.50 | документация |
| mistral-medium-2505 | Текст (фронтирная, экономичная) | 128K | не указано | Модель фронтирного класса с радикально низкой стоимостью; ~90% качества Claude 3.7/3.5 Sonnet на стандартных бенчмарках; 57.1% GPQA, 77.2% MMLU Pro, 92.1% HumanEval. Лучше всего для кодирования, STEM, аналитики. |
|
вход: $0.40; выход: $2.00 | документация |
| mistral-small-2506 | Текст (универсальная, открытая) | 128K | 24B | Mistral Small 3.2: обновлённая открытая модель с улучшенным следованием инструкциям (84.78%), снижением повторений и поддержкой мультимодальности; открытый исходный код (Apache 2.0). |
|
вход: $0.10; выход: $0.30 | документация |
| magistral-medium-2509 | Рассуждающая (прозрачная, мультимодальная) | 128K | не указано | Magistral Medium 1.2: рассуждающая модель среднего размера с прозрачными цепочками рассуждений; улучшенные показатели на AIME24/AIME25 и LiveCodeBench; поддерживает анализ изображений. |
|
вход: $2.00; выход: $5.00 | документация |
| magistral-small-2509 | Рассуждающая (24B, открытые веса) | 128K | 24B | Magistral Small 1.2: компактная рассуждающая модель с открытыми весами; Apache 2.0; поддержка цепочек рассуждений и зрения; ~70%+ на AIME24 и ~70% GPQA Diamond по независимым оценкам. |
|
самостоятельно: бесплатно (открытые веса); API: вход ~$0.50; выход ~$1.50 | Hugging Face |
| ministral-14b-2512 | Текст (мультимодальная, 14B, открытые веса) | 256K | 13.5B язык + 0.4B зрение | Крупнейшая модель семейства Ministral 3; баланс между качеством и эффективностью для облака и периферии; встроенное зрение; 256K контекст; варианты Base/Instruct/Reasoning. |
|
вход: $0.20; выход: $0.20 | Hugging Face |
| ministral-8b-2512 | Текст (мультимодальная, 8B, открытые веса) | 256K | 7.7B язык + 0.4B зрение | Компактная мультимодальная модель для периферии и локального запуска; 256K контекст; варианты Base/Instruct/Reasoning; превосходит большинство открытых 8B-моделей. |
|
вход: $0.15; выход: $0.15 | документация |
| ministral-3b-2512 | Текст (ультралёгкая, 3B, открытые веса) | 256K | 2.8B язык + 0.4B зрение | Сверхлёгкая мультимодальная модель для крайних ограничений по ресурсам; мобильные и периферийные сценарии; варианты Base/Instruct/Reasoning. |
|
вход: $0.10; выход: $0.10 | документация |
| pixtral-large-2411 | Мультимодальная (зрение, 124B) | 128K | 124B | Крупная мультимодальная модель (124B параметров); лучшие показатели на MathVista (69.4%), DocVQA, ChartQA; может обрабатывать 30+ изображений высокого разрешения; открытые веса (MRL/коммерческая лицензия). |
|
вход: $2.00; выход: $6.00 | документация |
| codestral-2508 | Код (заполнение середины, быстрая) | 128K | не указано | Специализированная модель для кодирования (версии 25-08); поддержка 80+ языков программирования; оптимизирована для автодополнения и FIM; низкая задержка. |
|
вход: $0.30; выход: $0.90 | документация |
| devstral-2512 | Код (агентные сценарии, фронтирная) | 256K | 123B | Devstral 2: фронтирная агентная модель для инженерных задач; 72.2% SWE-bench Verified; оптимизирована для использования инструментов, мультифайлового рефакторинга и терминального агента Mistral Vibe. |
|
вход: $0.40; выход: $2.00 | документация |
Ключевые особенности
- Mistral Large 3 (декабрь 2025) — фронтирная модель с архитектурой разреженной смеси экспертов (41B активных / 675B всего параметров), 256K контекст, встроенное зрение, Apache 2.0 лицензия; ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond, ~92% HumanEval
- Семейство Mistral 3 (декабрь 2025) — Mistral Large 3 и Ministral 3 (3B/8B/14B с вариантами Base/Instruct/Reasoning), все мультимодальные, все под Apache 2.0
- Рассуждающие модели Magistral 1.2 — прозрачные многошаговые рассуждения, улучшенные показатели на AIME24/25 и LiveCodeBench; Small 1.2 (24B, Apache 2.0, открытые веса), Medium 1.2 (API-модель для промышленного использования)
- Передовой класс с экономичной ценой: Mistral Medium 3 (8x дешевле, чем многие конкуренты при близком качестве; сильна в коде и STEM)
- Фронтирные кодовые модели: Codestral (низкая задержка, FIM, 128K контекст) и Devstral 2 (123B, 256K контекст, 72.2% SWE-bench Verified) для агентных сценариев
- Публичный API (чат / эмбеддинги), вызов функций, пакетный API (50% скидка на асинхронные запросы)
- Открытые веса для множества моделей (Magistral Small 1.2, Mistral Small 3.2, Ministral 3, Pixtral 12B / Large, Codestral, Devstral Small 2) — семейство Mistral 3 под Apache 2.0
- Мультимодальность «из коробки» (встроенные кодеры зрения в Ministral 3 и Mistral Large 3; отдельные Pixtral модели для сложного зрения)
- Оптимизированные для периферии модели (Ministral 3B / 8B / 14B с 256K контекстом для использования на устройстве и периферийных сценариев)
- Самостоятельное развертывание, локально (в инфраструктуре заказчика), опции резидентности данных в ЕС (GDPR-совместимо)
- Интеграции: Google Cloud Vertex, Azure AI, IBM watsonx, Snowflake Cortex, AWS Bedrock; Mistral NeMo и Mistral 3 доступны через партнёров
- Le Chat с расширенными возможностями: режим Deep Research (глубокий поиск и синтез источников), режим Think Mode (рассуждение на базе Magistral), режим Voice Mode (Voxtral), улучшенное редактирование изображений и Flash Answers (ускоренные ответы)
- Быстрое развитие: компания основана экс-сотрудниками Meta AI и DeepMind; активная разработка с высоким темпом релизов и ставкой на открытые веса
Рекомендации по применению
- Mistral Large 3 — фронтирные приложения, высокосложные агентные задачи, RAG, аналитика на больших контекстах; конкурент GPT-5/Gemini/Claude при сохранении открытых весов и самостоятельного размещения
- Magistral Medium 1.2 — задачи на рассуждение, многоязычные рассуждения, финансовое/юридическое моделирование, аудит, сложный STEM с явными цепочками рассуждений
- Magistral Small 1.2 — открытая рассуждающая модель для исследований, дообучения и локальных приложений, где важны прозрачность логики и поддержка зрения
- Mistral Medium 3 — приложения фронтирного качества с ограниченным бюджетом; кодирование, STEM, анализ данных, универсальные корпоративные ассистенты
- Mistral Small 3.2 — приложения, требующие баланса качества и стоимости; мультимодальные задачи; кодирование и обобщённые ассистенты
- Ministral 14B — оптимальный баланс для облака и периферии; мультимодальные приложения на среднем оборудовании с 256K контекстом
- Ministral 8B — периферийные вычисления, мобильные приложения, локальные мультимодальные ассистенты с более высоким качеством, чем большинство 7–8B моделей
- Ministral 3B — крайние ограничения по ресурсам, мобильные устройства, граничные вычисления с сохранением поддержки зрения
- Devstral 2 — код-ассистенты и агентные сценарии, репозитарные агенты, мультифайловый рефакторинг, сложные архитектурные изменения в сочетании с Mistral Vibe CLI
- Codestral — автодополнение и FIM в IDE, быстрые локальные подсказки для кода, сценарии с большим количеством коротких запросов
- Pixtral Large — документы, диаграммы, визуальный анализ, финансовые отчёты (лучшие показатели на MathVista, DocVQA); при необходимости — высокое качество зрения и текста
- Pixtral 12B (открытые веса, устаревший вариант в API) — зрение на периферии и локальных установках, если нужен открытый VLM среднего размера
Ограничения и риски
- Mistral 3 (декабрь 2025) — относительно новый крупный релиз; требует производственного мониторинга и валидации под конкретные задачи, особенно для критичных доменов
- Magistral 1.2 — рассуждающая линейка, активно дообучается; поведение и форматы ответов (особенно цепочек рассуждений) могут меняться между версиями
- Бесплатные тарифы API/чата имеют ограниченные квоты; для промышленного использования обычно нужен платный план или выделенный тариф
- Меньшее присутствие на рынке по сравнению с OpenAI/Google/Anthropic; экосистема и документация быстро растут, но могут быть менее зрелыми в отдельных нишах
- GDPR/EU AI Act: Mistral находится в ЕС; соответствие EU AI Act может влиять на доступность некоторых режимов для европейских пользователей, хотя сам провайдер заявляет полную GDPR-совместимость
- Цены и доступность моделей регулярно обновляются; информация актуальна на февраль 2026 года, но требует проверки на официальной странице цен
- Ministral Reasoning-варианты и Devstral 2 — новые, активно развиваемые модели; рекомендуется дополнительное тестирование на собственных датасетах
Сравнение цен
Чат (подписка)
| План / уровень | Цена | Ссылка |
|---|---|---|
| Le Chat Free (бесплатный) | $0 | ссылка |
| Le Chat Pro | $14.99 / месяц (€14.99 в ЕС; типично €17.99 с НДС) | цены |
| Le Chat Team | $24.99 / пользователь/месяц (годовая: $19.99/месяц с ~20% скидкой) | страница |
| Le Chat Student | ~$5.99–6.99 / месяц (скидка >50% от Pro для студентов) | страница |
| Le Chat Enterprise | Индивидуальные цены | страница |
| OpenAI ChatGPT Plus | $20 / месяц | цены |
| Anthropic Claude Pro | $20 / месяц | цены |
| Google AI Pro (Gemini) | $19.99 / месяц | цены |
| DeepSeek Web Chat | Бесплатно | страница |
API (модели)
| Провайдер | Модель / ID | вход, $/1M | выход, $/1M | Примечания | Ссылка |
|---|---|---|---|---|---|
| Mistral | mistral-large-2512 | $0.50 | $1.50 | Фронтирная модель Mistral 3; MoE (41B активных / 675B всего); мультимодальная; 256K контекст; Apache 2.0 | цены |
| Mistral | mistral-medium-2505 | $0.40 | $2.00 | Фронтирная модель среднего класса; ~90% Claude Sonnet 3.7; сильна в коде и STEM; 128K контекст | цены |
| Mistral | mistral-small-2506 | $0.10 | $0.30 | Mistral Small 3.2; мультимодальная; 128K контекст; открытые веса | цены |
| Mistral | codestral-2508 | $0.30 | $0.90 | Обновлённая кодовая модель (FIM, автодополнение); 128K контекст; 80+ языков | цены |
| Mistral | pixtral-large-2411 | $2.00 | $6.00 | Мультимодальная модель; сильное зрение (MathVista, DocVQA, ChartQA); тарификация по токенам | цены |
| Mistral | ministral-8b-2512 | $0.15 | $0.15 | Мультимодальная; открытые веса; 256K контекст; оптимизирована для периферии | цены |
| Mistral | ministral-3b-2512 | $0.10 | $0.10 | Сверхлёгкая мультимодальная; открытые веса; 256K контекст | цены |
| Mistral | ministral-14b-2512 | $0.20 | $0.20 | Сбалансированная 14B модель с видением; 256K контекст; Apache 2.0 | цены |
| Mistral | devstral-2512 | $0.40 | $2.00 | Devstral 2 (123B); агентная модель для кода; 256K контекст; высокая точность на SWE-bench | цены |
| DeepSeek | deepseek-chat (v3.2) | $0.28 (кешированный ~$0.028) | $0.42 | Очень дешёвый вариант на рынке; сильные рассуждения | цены |
| OpenAI | gpt-4o-mini | $0.075 | $0.30 | Компактная модель; хорошо сбалансированная; 128K контекст | цены |
| OpenAI | gpt-5 | $0.625 | $5.00 | Флагман OpenAI (основная серия GPT-5); передовые рассуждения | цены |
| Anthropic | Claude Sonnet 4.5 | $3.00 | $15.00 | Последняя версия Anthropic среднего класса | цены |
| gemini-2.5-flash | $0.30 | $2.50 | Гибридная модель для рассуждений и обычных задач; 1M контекст | цены | |
| xAI | grok-4-fast-reasoning | $0.20 | $0.50 | 2M контекст; быстрая рассуждающая модель; существенно дешевле Grok 4 | цены |
Бенчмарки (на конец 2025)
| Провайдер | Модель / ID | GPQA | MMLU Pro | HumanEval | AIME / Рассуждения | Источник |
|---|---|---|---|---|---|---|
| Mistral | Mistral Large 3 2512 | 43.9% | ~81% (5-shot CoT) | ~92% | — | Независимые обзоры (GPQA Diamond, MMLU, HumanEval); Mistral / Azure / сторонние аналитики |
| Mistral | Magistral Medium 2509 (1.2) | — | — | — | ~91.8% AIME24; ~83.5% AIME25 (по независимым оценкам) | VentureBeat / независимые бенчмарки Magistral 1.2 |
| Mistral | Mistral Medium 3 | 57.1% | 77.2% | 92.1% | — | Mistral Medium 3 vs Claude 3.7 Sonnet / Llama 4 Maverick (официальные и сторонние оценки) |
| OpenAI | GPT-5 | 85.7% | не указано | 93.4% | — | openai.com |
| Gemini 2.5 Pro | 83.0% | не указано | — | — | google.dev | |
| xAI | Grok-4 Heavy | 88.4% | не указано | — | — | x.ai |
| Anthropic | Claude 3.5 Sonnet | 67.2% | 77.6% | 93.7% | — | anthropic.com |
| Anthropic | Claude Sonnet 4.5 | 83.4% | не указано | ~90% | — | anthropic.com |
| DeepSeek | DeepSeek-R1 | 71.5% | 84.0% | ~92% | 92.2% (AIME2024) | github.com |
| Meta | Llama 3.1 405B | 50.7% | 73.3% | 89.0% | — | llama.meta.com |
| Meta | Llama 4 Maverick | 69.8% | 80.5% | ~90% | — | ai.meta.com |
| Alibaba | Qwen2.5 72B | 49.0% | 71.1% | 86.6% | — | qwenlm.ai |
Обновления на февраль 2026
- Семейство Mistral 3 (декабрь 2025) — фронтирный релиз с Mistral Large 3 (MoE, 41B активных / 675B всего параметров, 256K контекст, встроенное зрение, Apache 2.0) и Ministral 3 (3B/8B/14B с вариантами Base/Instruct/Reasoning, все мультимодальные, все Apache 2.0). Mistral Large 3 входит в топ открытых моделей по суммарным бенчмаркам и занимает высокие позиции на LMArena.
- Mistral Large 3 — фронтирная модель с разреженной архитектурой MoE (41B активных параметров на токен при 675B всего); мультимодальная (встроенный кодер зрения), 256K контекст, поддержка вызова функций и структурированного вывода, полностью открытая (Apache 2.0) для коммерческого использования без MAU-ограничений. По независимым данным достигает ~85.5% MMLU (многоязычная), ~43.9% GPQA Diamond и ~92% HumanEval.
- Mistral Saba 2502 (17 февраля 2025) — модель для сложных задач на рассуждение и анализ между Medium и Large; к 2026 году отмечена как устаревшая (Legacy) и вытеснена Magistral/Mistral 3 в новых сценариях.
- Mistral Small 3.2 (июнь 2025) — обновление с улучшенным следованием инструкциям (84.78% точность vs 82.75% в 3.1), снижением повторений (1.29% vs 2.11%), мультимодальной поддержкой, открытыми весами (Apache 2.0), запуском на одиночном GPU (~55GB VRAM BF16).
- Mistral Medium 3 (май 2025) — модель фронтирного качества с 8x более низкой стоимостью ($0.40/$2.00 против $3.00/$15.00 у Claude 3.7/3.5 Sonnet); ~90% эквивалента Claude Sonnet на основных бенчмарках; превосходит Llama 4 Maverick на кодировании (92.1% HumanEval) и STEM; поддерживает самостоятельное развертывание на 4+ GPU и пользовательское дообучение, пакетный API с 50% скидкой.
- Magistral Small & Medium (1.0, июнь 2025) → Magistral 1.2 (сентябрь 2025) — первые рассуждающие модели Mistral с прозрачными многошаговыми рассуждениями и 10x скоростью (Flash Answers через Cerebras); в версии 1.2 добавлены модуль зрения, рост точности на AIME24/25 и LiveCodeBench, улучшено форматирование вывода и работа с инструментами.
- Ministral 3 семейство (декабрь 2025) — компактные модели (3B/8B/14B) с встроенным зрением, 256K контекстом и тремя вариантами (Base/Instruct/Reasoning), все под Apache 2.0. Ministral 3 14B запускается на 24GB GPU, а 3B при квантовании помещается <4GB.
- Pixtral Large (ноябрь 2024) — 124B мультимодальная модель с лучшими показателями на MathVista (69.4%), DocVQA, ChartQA; обработка документов, диаграмм, финансовых отчётов; до 30 изображений; открытые веса (MRL/коммерческая лицензия). Ценообразование переведено на токены ($2/$6 за 1M).
- Devstral 2 (декабрь 2025) — фронтирная агентная модель для кода (123B, 256K контекст) с результатом 72.2% на SWE-bench Verified; открытые веса под модифицированным MIT; Devstral Small 2 (24B, Apache 2.0) для локального запуска; вместе с CLI Mistral Vibe формирует полнофункциональный стек для «интуитивного программирования» (vibe coding).
- Обновления Le Chat — режим Deep Research (глубокий исследовательский помощник с синтезом источников), режим Think Mode (Magistral для сложных вопросов), режим Voice Mode (Voxtral), улучшенное редактирование изображений (удаление объектов, изменение фона), Flash Answers (до 1000 слов/с), мобильные приложения для iOS и Android.
- Интеграции (декабрь 2025 — январь 2026) — Google Cloud Vertex, Azure AI, IBM watsonx, Snowflake Cortex, AWS Bedrock; Mistral Document AI как сервис на Azure AI Foundry; доступность Mistral 3 и Devstral 2 через сторонние провайдеры и партнёров.
- Лицензирование Mistral 3 — все модели семейства Mistral 3 (Large 3, Ministral 3, Small 3.2) под Apache 2.0 для коммерческого использования без ограничений по MAU (в отличие от многих конкурентов).
- Ценовая стратегия — Le Chat Pro стоит $14.99/месяц (ниже, чем у большинства конкурентов); Team $24.99/пользователь или $19.99/пользователь в год; API Mistral Large 3 $0.50/$1.50, Ministral 3 — от $0.10/$0.20 за 1M токенов, Magistral Small/Medium 1.2 — $0.50/$1.50 и $2/$5 соответственно.
- Статус финансирования (сентябрь 2025, прогноз на 2026) — оценка ~$14 млрд USD после раунда серии C; компания заявляет цель выйти на выручку €1 млрд в 2026 году, что делает её крупнейшим независимым европейским игроком в области ИИ.
- Рыночная позиция — Mistral Large 3 занимает одно из лидирующих мест среди открытых нерассуждающих моделей (по Artificial Analysis, LMArena и др.); семейство Ministral 3 предоставляет лучшее соотношение цена/производительность среди открытых периферийных моделей; Devstral 2 и Magistral 1.2 усиливают позиции Mistral в областях код-агентов и reasoning-моделей.