DeepSeek-V3.1 обошла собственную модель рассуждений в бенчмарках
DeepSeek представила гибридную модель V3.1 с двумя режимами работы, которая превзошла собственную модель рассуждений R1 в тестах при радикально низких ценах.
DeepSeek — провайдер больших языковых моделей с публичным API и веб-чатом; платформа для доступа к моделям через веб-интерфейс, мобильные приложения (iOS/Android) и OpenAI-совместимый API.
Текущая линейка облачных моделей включает DeepSeek-V3.2 в двух режимах доступа через единый API: диалоговую модель без явного режима рассуждений и рассуждающую модель с цепочкой рассуждений. Обе работают на базе архитектуры V3.2, поддерживают режим «thinking» (режим рассуждений) и тесную интеграцию с вызовом инструментов; отдельный высокоинтенсивный вариант DeepSeek-V3.2-Speciale доступен как открытая модель для локального развёртывания.
Реализована полная совместимость с OpenAI-подобным API, поддерживаются JSON-вывод, вызовы инструментов, префикс автодополнения чата, FIM (заполнение середины, только в обычном режиме), а также потоковая передача. Режим рассуждений предоставляет явное поле `reasoning_content` и может сочетаться с вызовом инструментов через параметр `thinking`.
Обновлено 9 февраля 2026 года.
| Название | DeepSeek |
| Официальный сайт | deepseek.com |
| Документация | api-docs.deepseek.com |
| Чат | chat.deepseek.com |
| Страна | Китай (Ханчжоу) |
| Разработчик | DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.) |
| Открытый исходный код | Да — DeepSeek-R1, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale опубликованы под лицензией MIT с открытыми весами на Hugging Face и GitHub; поддерживается локальное развёртывание и дистилляция. |
| ID (для API) | Тип / режим | Контекст | Кратко | Поддержка / ограничения | Цены ($/1M) | Документация |
|---|---|---|---|---|---|---|
| deepseek-chat | Чат (V3.2, обычный режим по умолчанию) | до 128K токенов контекста | Производственная диалоговая модель общего назначения DeepSeek-V3.2. Оптимизирована под стоимость и скорость, использует Разрежённое внимание DeepSeek (DSA) для удешевления и ускорения длинных запросов; поддерживает JSON-вывод, вызов функций, режим рассуждений и параллельную работу рассуждающего и быстрого режима. |
|
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 | Модели и цены |
| deepseek-reasoner | Рассуждающая (V3.2 в режиме рассуждений / DeepSeek-R1) | до 128K токенов контекста; до 64K токенов вывода (включая рассуждения) | Рассуждающая модель, реализующая цепочку рассуждений. Через API доступно поле reasoning_content с ходом рассуждений и content с финальным ответом. Превосходит стандартный V3.2 в задачах математики, программирования и сложной логики при увеличенном количестве токенов рассуждений. |
|
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 | Режим рассуждений — руководство |
deepseek-chat и deepseek-reasoner до DeepSeek-V3.2; для обоих действует единая сетка цен и общий базовый URL. В 2025 году существовал отдельный временный API-эндпоинт V3.2-Speciale с максимальной глубиной рассуждений, действовавший до 15 декабря 2025; сейчас он недоступен, но сама модель V3.2-Speciale остаётся в открытом доступе для локального развёртывания./chat/completions и совместимость с OpenAI SDK при указании base_url=https://api.deepseek.comdeepseek-reasoner / deepseek-chat), так и через параметр thinking внутри одной модели.tool_calls и интеграцией с агентами.reasoning_content в сообщениях; возможна потоковая выдача хода рассуждений отдельно от финального ответа.| Провайдер | План / уровень | Цена (как в официальном источнике) | Ссылка |
|---|---|---|---|
| DeepSeek | Web Chat / мобильное приложение | Бесплатно (нет платных уровней для потребительского чата) | страница |
| OpenAI | ChatGPT Plus | $20 / месяц | цены |
| Anthropic | Claude Pro | $20 / месяц (при помесячной оплате) | цены |
| Google AI Pro (план Google One) | $19.99 / месяц | цены | |
| Mistral | Le Chat Pro | €14.99 / месяц (≈ $14.99) | цены |
| Провайдер | Модель / ID | вход (кэш), $/1M | вход (промах), $/1M | выход, $/1M | Примечания | Ссылка |
|---|---|---|---|---|---|---|
| DeepSeek | deepseek-chat (V3.2) | $0.028 | $0.28 | $0.42 | Разрежённое внимание (DSA); продакшн-модель; до 90% экономии при попадании в кэш | цены |
| DeepSeek | deepseek-reasoner (V3.2/R1) | $0.028 | $0.28 | $0.42 | Режим с рассуждениями; единая сетка цен с чатом; отдельное поле reasoning_content |
цены |
| OpenAI | gpt-5-mini | $0.025 (кэш) | $0.25 | $2.00 | Бюджетная версия GPT-5 для недорогих задач | цены |
| OpenAI | gpt-5.2 | $0.175 (кэш) | $1.75 | $14.00 | Флагманская модель GPT-5.2 | цены |
| Anthropic | Claude Sonnet 4.5 | $0.30 (кэш-чтение) | $3.00 (обычный вход ≤200K токенов) | $15.00 | Поддержка кэширования подсказок; для длинного контекста применяется повышенный тариф | цены |
| gemini-2.5-flash | $0.03 (кэш) | $0.30 | $2.50 | Гибридная рассуждающая модель; контекст до 1M токенов | цены | |
| xAI | grok-4-fast-reasoning | $0.05 (кэш-чтение) | $0.20 | $0.50 | До 2M токенов контекста; быстрый режим рассуждений | цены |
| Провайдер | Модель / ID | MMLU | GPQA Diamond | HumanEval | MMLU Pro | DROP | AIME 2025 (Pass@1) | HMMT Feb 2025 | Источник |
|---|---|---|---|---|---|---|---|---|---|
| DeepSeek | V3.2 (официальная) | ~90.8% | — | ~92% | — | — | 93.1% | ~92–95% | Эквивалент V3.2-Exp / V3.1-Terminus по общим задачам |
| DeepSeek | V3.2-Speciale (открытые веса) | — | — | — | — | — | 96.0% | 99.2% | Максимальная глубина рассуждений; олимпиады 2025 |
| DeepSeek | R1 | 90.80% | 71.50% | ~92.4% | 84.00% | 92.20% | 79.8% (Pass@1), 86.7% (самопроверка) | — | github.com |
| OpenAI | GPT-5 | ~92.5% | ~85.7% | ~93.4% | — | — | — | — | openai.com |
| Anthropic | Claude Sonnet 4.5 | — | ~83.4% | ~90% | — | — | — | — | anthropic.com |
| Anthropic | Claude 3.5 Sonnet | 90.40% | 67.20% | 93.70% | 77.60% | 87.10% | — | — | anthropic.com |
| Gemini 2.5 Pro | — | 86.4% | — | — | — | — | — | ai.google.dev | |
| xAI | Grok 4 Heavy | — | 88.40% | — | — | — | — | — | x.ai |
deepseek-chat и deepseek-reasoner.DeepSeek представила гибридную модель V3.1 с двумя режимами работы, которая превзошла собственную модель рассуждений R1 в тестах при радикально низких ценах.
DeepSpeed ZenFlow решает проблему простоя GPU при оффлоадинге, обеспечивая до 5x ускорение обучения больших языковых моделей без потери точности.
Nscale запустила сервис дообучения языковых моделей для бизнес-задач. Технология позволяет адаптировать общие LLM под специфические домены с помощью контролируемого обучения.
Новый метод GEPA от исследователей из Berkeley, Stanford и Databricks предлагает в 35 раз более эффективную оптимизацию языковых моделей без дорогостоящего обучения с подкреплением.
Новое ядро Triton для Grouped GEMM ускоряет обучение MoE-моделей в 2.62 раза на NVIDIA H100 за счет persistent kernel, cache-aware вычислений и TMA.
Канадский стартап Cohere назначает экс-главу FAIR Meta Джоэль Пинно на пост CAIO для усиления исследований. Стратегический ход на фоне отставания от лидеров ИИ-рынка.