DeepSeek

DeepSeek — провайдер больших языковых моделей с публичным API и веб-чатом; платформа для доступа к моделям через веб-интерфейс, мобильные приложения (iOS/Android) и OpenAI-совместимый API.

Текущая линейка облачных моделей включает DeepSeek-V3.2 в двух режимах доступа через единый API: диалоговую модель без явного режима рассуждений и рассуждающую модель с цепочкой рассуждений. Обе работают на базе архитектуры V3.2, поддерживают режим «thinking» (режим рассуждений) и тесную интеграцию с вызовом инструментов; отдельный высокоинтенсивный вариант DeepSeek-V3.2-Speciale доступен как открытая модель для локального развёртывания.

Реализована полная совместимость с OpenAI-подобным API, поддерживаются JSON-вывод, вызовы инструментов, префикс автодополнения чата, FIM (заполнение середины, только в обычном режиме), а также потоковая передача. Режим рассуждений предоставляет явное поле `reasoning_content` и может сочетаться с вызовом инструментов через параметр `thinking`.

Обновлено 9 февраля 2026 года.

Факты

Название DeepSeek
Официальный сайт deepseek.com
Документация api-docs.deepseek.com
Чат chat.deepseek.com
Страна Китай (Ханчжоу)
Разработчик DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.)
Открытый исходный код Да — DeepSeek-R1, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale опубликованы под лицензией MIT с открытыми весами на Hugging Face и GitHub; поддерживается локальное развёртывание и дистилляция.

Быстрые ссылки

История релизов

  • 2025-12-01 — DeepSeek-V3.2 (официальная): запуск официальной версии V3.2 с режимом рассуждений и поддержкой вызова инструментов в обычном режиме и режиме рассуждений; обновление моделей API (`deepseek-chat` и `deepseek-reasoner`) и веб-сервисов/приложений до V3.2 без изменений интерфейсов — ссылка
  • 2025-12-01 — DeepSeek-V3.2-Speciale: выпуск открытого высокоинтенсивного варианта, ориентированного на максимально глубокие рассуждения; существенно более глубокие рассуждения по сравнению с V3.2 и золотые медали на олимпиадах IMO/IOI/ICPC; в 2025 году предоставлялся ограниченный временный API-эндпоинт до 15 декабря 2025, далее модель используется преимущественно через открытые веса — ссылка
  • 2025-09-29 — DeepSeek-V3.2-Exp: запуск экспериментальной версии с более чем 50% снижением стоимости за счёт Разрежённого внимания DeepSeek (DSA); ускорение в 2–3 раза для длинных контекстов; позднее заменена официальной V3.2 как основным API-эндпоинтом — ссылка
  • 2025-09-05 — Уравнивание цен: переход deepseek-chat и deepseek-reasoner на единую сетку цен, дальнейшая оптимизация стоимости за счёт кэширования контекста — ссылка
  • 2025-08-21 — DeepSeek-V3.1-Terminus: официальный релиз с гибридной архитектурой (рассуждения + быстрый режим), улучшениями вызова инструментов и работы агентов; впоследствии заменён линейкой V3.2 — ссылка
  • 2024-12-26 — DeepSeek-R1: представление открытой рассуждающей модели с RL-обучением; 79.8% на AIME 2024 и 97.3% на MATH-500 — ссылка

Модели (API)

ID (для API) Тип / режим Контекст Кратко Поддержка / ограничения Цены ($/1M) Документация
deepseek-chat Чат (V3.2, обычный режим по умолчанию) до 128K токенов контекста Производственная диалоговая модель общего назначения DeepSeek-V3.2. Оптимизирована под стоимость и скорость, использует Разрежённое внимание DeepSeek (DSA) для удешевления и ускорения длинных запросов; поддерживает JSON-вывод, вызов функций, режим рассуждений и параллельную работу рассуждающего и быстрого режима.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: полная поддержка
  • Префикс чата / автодополнение и FIM: поддерживаются в обычном режиме
  • Режим рассуждений: да, через параметр thinking (с доступом к reasoning_content)
  • Потоковая передача: да
  • Производительность: уровень GPT-5 на задачах общего назначения при существенно более низкой цене
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Модели и цены
deepseek-reasoner Рассуждающая (V3.2 в режиме рассуждений / DeepSeek-R1) до 128K токенов контекста; до 64K токенов вывода (включая рассуждения) Рассуждающая модель, реализующая цепочку рассуждений. Через API доступно поле reasoning_content с ходом рассуждений и content с финальным ответом. Превосходит стандартный V3.2 в задачах математики, программирования и сложной логики при увеличенном количестве токенов рассуждений.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: поддерживаются в режиме рассуждений
  • Цепочка рассуждений: да, с контролем глубины через параметры и лимит токенов
  • Игнорируются параметры: temperature, top_p, presence_penalty, frequency_penalty; logprobs / top_logprobs вызывают ошибку
  • Потоковая передача: да (отдельные потоки для reasoning_content и ответа)
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Режим рассуждений — руководство
Примечание: С 1 декабря 2025 года DeepSeek обновил deepseek-chat и deepseek-reasoner до DeepSeek-V3.2; для обоих действует единая сетка цен и общий базовый URL. В 2025 году существовал отдельный временный API-эндпоинт V3.2-Speciale с максимальной глубиной рассуждений, действовавший до 15 декабря 2025; сейчас он недоступен, но сама модель V3.2-Speciale остаётся в открытом доступе для локального развёртывания.

Ключевые особенности

  • Совместимый с OpenAI формат API (современные SDK): вызовы через /chat/completions и совместимость с OpenAI SDK при указании base_url=https://api.deepseek.com
  • Разрежённое внимание DeepSeek (DSA) — селективный механизм внимания, фокусирующийся на релевантных токенах; более чем 50% снижение вычислительной стоимости и ускорение в 2–3 раза для длинных контекстов (около 128K токенов) без потери качества.
  • Гибридная архитектура V3.2: режим рассуждений и стандартный быстрый режим, доступные как через раздельные модели (deepseek-reasoner / deepseek-chat), так и через параметр thinking внутри одной модели.
  • Режимы JSON-вывода и вызова функций в обычном режиме и режиме рассуждений, с передачей tool_calls и интеграцией с агентами.
  • Публичный режим рассуждений с доступом к цепочке рассуждений через поле reasoning_content в сообщениях; возможна потоковая выдача хода рассуждений отдельно от финального ответа.
  • Полностью открытый исходный код (лицензия MIT) для DeepSeek-R1, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale; доступны полные веса на Hugging Face и GitHub, есть дистиллированные модели от 1.5B до 70B параметров для локального развёртывания.
  • Префикс автодополнения чата и заполнение середины (FIM) в обычном режиме для специализированных задач: автодополнение кода, подсказки IDE, доавтодополнение фрагментов.
  • Потоковая передача, кэширование контекста и файловое кэширование на диске для резкого удешевления повторяющихся запросов (до 90% экономии при попадании в кэш).
  • Контекст-кэш: $0.028/1M токенов при попадании против $0.28/1M при промахе (цены для входных токенов); расчёт стоимости прозрачен и основан на фактическом числе токенов.
  • Интеграция с математическим стеком DeepSeekMath-V2 и RL-обучением DeepSeek-R1 для сложных задач рассуждений, доказательств и проверки логики.

Рекомендации по применению

  • deepseek-chat (V3.2): ассистенты и чат-боты общего назначения, структурированный вывод (JSON), интеграции через OpenAI-совместимые SDK, массовая обработка с минимальной стоимостью, продакшн-приложения с вызовом инструментов. Подходит как базовая модель для продуктов, где важны низкая цена и стабильное качество.
  • deepseek-reasoner (V3.2/R1, режим рассуждений): задачи, критичные к качеству рассуждений — математика, сложное программирование, длинные многошаговые сценарии (планирование, анализ, рассуждения в несколько десятков шагов). Рекомендуется для STEM-задач, сложной аналитики и там, где допустима повышенная стоимость за счёт длинных цепочек рассуждений.
  • Открытые модели V3.2 / V3.2-Speciale / R1 (локально): локальные развёртывания, где важен полный контроль над данными и инфраструктурой; эксперименты с модификацией архитектуры и обучения; сценарии, где ограничены или неприемлемы внешние API.

Ограничения и риски

  • Глубокие рассуждения в режиме рассуждений заметно увеличивают расход токенов: чем сложнее задача и чем глубже цепочка рассуждений, тем дороже запрос; особенно заметно для сложной математики и программирования.
  • В режиме рассуждений часть параметров генерации (temperature, top_p и др.) не используется; управление стилем ответа ограничено, зато поведение более детерминированно.
  • Актуальность знаний: по состоянию на документацию, базовые модели обучены приблизительно до конца 2024 года; для информации после этой даты требуется веб-поиск или внешний источник знаний.
  • Базирование в Китае (Ханчжоу) может вызывать юридические и регуляторные вопросы у отдельных заказчиков, требуя отдельной оценки рисков и соответствия требованиям комплаенса.
  • Цепочки рассуждений могут избыточно усложнять решение простых задач — модель стремится развернуть подробный ход мысли даже там, где достаточно краткого ответа; для простых запросов рекомендуется использовать обычный режим deepseek-chat без режима рассуждений.

Сравнение цен

Чат (подписка)

Провайдер План / уровень Цена (как в официальном источнике) Ссылка
DeepSeek Web Chat / мобильное приложение Бесплатно (нет платных уровней для потребительского чата) страница
OpenAI ChatGPT Plus $20 / месяц цены
Anthropic Claude Pro $20 / месяц (при помесячной оплате) цены
Google Google AI Pro (план Google One) $19.99 / месяц цены
Mistral Le Chat Pro €14.99 / месяц (≈ $14.99) цены

API (модели)

Провайдер Модель / ID вход (кэш), $/1M вход (промах), $/1M выход, $/1M Примечания Ссылка
DeepSeek deepseek-chat (V3.2) $0.028 $0.28 $0.42 Разрежённое внимание (DSA); продакшн-модель; до 90% экономии при попадании в кэш цены
DeepSeek deepseek-reasoner (V3.2/R1) $0.028 $0.28 $0.42 Режим с рассуждениями; единая сетка цен с чатом; отдельное поле reasoning_content цены
OpenAI gpt-5-mini $0.025 (кэш) $0.25 $2.00 Бюджетная версия GPT-5 для недорогих задач цены
OpenAI gpt-5.2 $0.175 (кэш) $1.75 $14.00 Флагманская модель GPT-5.2 цены
Anthropic Claude Sonnet 4.5 $0.30 (кэш-чтение) $3.00 (обычный вход ≤200K токенов) $15.00 Поддержка кэширования подсказок; для длинного контекста применяется повышенный тариф цены
Google gemini-2.5-flash $0.03 (кэш) $0.30 $2.50 Гибридная рассуждающая модель; контекст до 1M токенов цены
xAI grok-4-fast-reasoning $0.05 (кэш-чтение) $0.20 $0.50 До 2M токенов контекста; быстрый режим рассуждений цены

Бенчмарки (официальные; декабрь 2025)

Провайдер Модель / ID MMLU GPQA Diamond HumanEval MMLU Pro DROP AIME 2025 (Pass@1) HMMT Feb 2025 Источник
DeepSeek V3.2 (официальная) ~90.8% ~92% 93.1% ~92–95% Эквивалент V3.2-Exp / V3.1-Terminus по общим задачам
DeepSeek V3.2-Speciale (открытые веса) 96.0% 99.2% Максимальная глубина рассуждений; олимпиады 2025
DeepSeek R1 90.80% 71.50% ~92.4% 84.00% 92.20% 79.8% (Pass@1), 86.7% (самопроверка) github.com
OpenAI GPT-5 ~92.5% ~85.7% ~93.4% openai.com
Anthropic Claude Sonnet 4.5 ~83.4% ~90% anthropic.com
Anthropic Claude 3.5 Sonnet 90.40% 67.20% 93.70% 77.60% 87.10% anthropic.com
Google Gemini 2.5 Pro 86.4% ai.google.dev
xAI Grok 4 Heavy 88.40% x.ai

Обновления декабря 2025

  • DeepSeek-V3.2 — официальный релиз (1 декабря 2025) — замена V3.2-Exp на основной API/web/app-эндпоинт; бесшовное обновление для всех пользователей; передовые показатели на задачах общего назначения; поддержка совмещённого режима рассуждений и вызова инструментов; около 93.1% на AIME 2025 и 92–95% на HMMT.
  • DeepSeek-V3.2-Speciale — вариант с максимальной глубиной рассуждений; рассуждения глубже примерно в 2–3 раза по сравнению с V3.2; до 96.0% на AIME 2025 и 99.2% на HMMT; ориентирован на сложные задачи математики и программирования; доступен как открытые веса.
  • DeepSeekMath-V2 и стек RL — интеграция механизма самопроверки математических доказательств и масштабное RL-дообучение (DeepSeek-R1), улучшающее проверку логики и вывод теорем.
  • Эффективность Разрежённого внимания DeepSeek (DSA) — селективное внимание к релевантным токенам; более чем 50% снижение стоимости API и ускорение в 2–3 раза для длинных контекстов; снижение потребления памяти без заметной потери качества.
  • Единое ценообразование для чат / рассуждений — интеграция контекст-кэша и унификация цен для deepseek-chat и deepseek-reasoner; сетка $0.028 (кэш) / $0.28 (промах входа) / $0.42 (выход) за 1M токенов.
  • Открытый исходный код — DeepSeek-R1 и DeepSeek-V3.2 (включая V3.2-Speciale) распространяются с открытыми весами под лицензией MIT; доступны уменьшенные дистиллированные модели, упрощающие локальное развёртывание и эксперименты.
  • Бесшовное обновление платформы — веб-версия, мобильные приложения (iOS/Android) и API обновляются синхронно; пользователям не требуется миграция на новые идентификаторы моделей — достаточно продолжать использовать deepseek-chat и deepseek-reasoner.

Новости

Scientel запустила 6-триллионую модель

Компания Scientel запустила на суперкомпьютере гибридную модель DeepSeek на 6 трлн параметров

Scientel продемонстрировала масштабирование DeepSeek R1 до триллионного уровня параметров на суперкомпьютере OSC. Решение сочетает параллельные вычисления и NewSQL-архитектуру, делая ставку на локальные ИИ-системы вместо облачных API.

DeepSeek использовал контрабандные чипы Nvidia

Разработчик DeepSeek может использовать контрабандные чипы Nvidia для обучения моделей

Китайский разработчик ИИ DeepSeek, по данным The Information, обучает свою новую модель на тысячах контрабандных чипов Nvidia Blackwell, обходя американские экспортные ограничения.

Mistral выпустила Devstral 2

Mistral выпустила Devstral 2 — мощную модель для программистов с ограниченной лицензией

Mistral выпустила Devstral 2 — семейство моделей для программирования с открытыми весами, но с ограничениями для крупного бизнеса. Младшая версия свободна для использования, а флагманская требует лицензии при доходе свыше $20 млн.

Deepseek V3.2 бросает вызов GPT-5 и Gemini 3

Deepseek бросает вызов GPT-5 и Gemini 3 Pro с новой моделью V3.2

Deepseek выпустил открытую модель V3.2, которая по математическим и программным тестам сравнялась с GPT-5 и Gemini 3 Pro, а её версия Speciale завоевала золото на международных олимпиадах.

Обучение MoE-моделей на 1024 GPU

AMD и PyTorch организовали эффективное обучение MoE-моделей на 1024 AMD GPU с TorchTitan

AMD и Meta* достигли 96% эффективности масштабирования при обучении MoE-моделей на 1024 GPU с помощью TorchTitan и Primus-Turbo.

DeepSeek выпустил математическую модель

DeepSeek выпустил открытую математическую модель уровня победителя олимпиады

Китайская компания DeepSeek выпустила открытую математическую модель, решающую задачи Международной олимпиады на уровне золотой медали, бросив вызов закрытым системам OpenAI и Google.