DeepSeek

DeepSeek — провайдер больших языковых моделей с публичным API и веб-чатом; платформа для доступа к моделям через веб-интерфейс, мобильные приложения (iOS/Android) и OpenAI-совместимый API.

Текущая линейка облачных моделей для текстового API строится вокруг DeepSeek-V3.2 в двух режимах доступа через единый API: диалоговая модель без явного режима рассуждений и рассуждающая модель с цепочкой рассуждений. Оба режима основаны на архитектуре V3.2, поддерживают режим рассуждений и тесную интеграцию с вызовом инструментов; отдельный высокоинтенсивный вариант DeepSeek-V3.2-Speciale доступен как открытая модель для локального развёртывания с открытыми весами под лицензией MIT.

Реализована полная совместимость с OpenAI-подобным API, поддерживаются JSON-вывод, вызовы инструментов, префикс автодополнения чата, FIM (заполнение середины, только в обычном режиме), а также потоковая передача. Режим рассуждений предоставляет явное поле reasoning_content и может сочетаться с вызовом инструментов через параметр thinking в поддерживаемых режимах.

Обновлено 26 марта 2026 года.

Факты

Название DeepSeek
Официальный сайт deepseek.com
Документация api-docs.deepseek.com
Чат chat.deepseek.com
Страна Китай (Ханчжоу)
Разработчик DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.)
Открытый исходный код Да — DeepSeek-R1 и семейство DeepSeek-V3 (включая V3.2 и V3.2-Speciale) опубликованы под лицензией MIT с открытыми весами на Hugging Face и GitHub; поддерживается локальное развёртывание и дистилляция.

Быстрые ссылки

История релизов

  • 2025-12-01 — DeepSeek-V3.2 (официальная версия): запуск официальной версии V3.2 с режимом рассуждений и поддержкой вызова инструментов в обычном режиме и режиме рассуждений; обновление моделей API (deepseek-chat и deepseek-reasoner) и веб-сервисов/приложений до V3.2 без изменений интерфейсов — ссылка
  • 2025-12-01 — DeepSeek-V3.2-Speciale: выпуск открытого высокоинтенсивного варианта, ориентированного на максимально глубокие рассуждения; существенно более глубокие рассуждения по сравнению с V3.2 и результаты уровня золотых медалей на олимпиадах IMO/IOI/ICPC; в 2025 году предоставлялась ограниченная временная точка доступа API до 15 декабря 2025, далее модель используется преимущественно через открытые веса — ссылка
  • 2025-09-29 — DeepSeek-V3.2-Exp: запуск экспериментальной версии с более чем 50% снижением стоимости за счёт Разрежённого внимания DeepSeek (DSA); ускорение в 2–3 раза для длинных контекстов; позднее заменена официальной версией V3.2 как основной точкой доступа API — ссылка
  • 2025-09-05 — Уравнивание цен: переход deepseek-chat и deepseek-reasoner на единую сетку цен, дальнейшая оптимизация стоимости за счёт кэширования контекста — ссылка
  • 2025-08-21 — DeepSeek-V3.1-Terminus: официальный релиз с гибридной архитектурой (рассуждения + быстрый режим), улучшениями вызова инструментов и работы агентов; впоследствии заменён линейкой V3.2 — ссылка
  • 2024-12-26 — DeepSeek-R1: представление открытой рассуждающей модели с обучением с подкреплением (RL); 79.8% на AIME 2024 и 97.3% на MATH-500 — ссылка

Модели (API)

ID (для API) Тип / режим Контекст Кратко Поддержка / ограничения Цены ($/1M) Документация
deepseek-chat Чат (V3.2, обычный режим по умолчанию) до ~160K токенов контекста Промышленная диалоговая модель общего назначения DeepSeek-V3.2. Оптимизирована под стоимость и скорость, использует Разрежённое внимание DeepSeek (DSA) для удешевления и ускорения длинных запросов; поддерживает JSON-вывод, вызов функций, режим рассуждений и параллельную работу рассуждающего и быстрого режима.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: полная поддержка
  • Префикс чата / автодополнение и FIM: поддерживаются в обычном режиме
  • Режим рассуждений: да, через параметр thinking (с доступом к reasoning_content в поддерживаемых конфигурациях)
  • Потоковая передача: да
  • Производительность: уровень флагманских моделей 2025–2026 годов на задачах общего назначения при существенно более низкой цене
вход (кэш): $0.026; вход (без кэша): $0.26; выход: $0.38 Модели и цены
deepseek-reasoner Рассуждающая (V3.2 в режиме рассуждений / DeepSeek-R1-стек) до ~160K токенов контекста; до 64K токенов вывода (включая рассуждения) Рассуждающая модель, реализующая цепочку рассуждений. Через API доступно поле reasoning_content с ходом рассуждений и content с финальным ответом; превосходит стандартный V3.2 в задачах математики, программирования и сложной логики при увеличенном количестве токенов рассуждений.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: поддерживаются в режиме рассуждений
  • Цепочка рассуждений: да, с контролем глубины через параметры и лимит токенов
  • Игнорируются некоторые параметры генерации (например, logprobs / top_logprobs); точный список уточняется в актуальной документации
  • Потоковая передача: да (отдельные потоки для reasoning_content и ответа)
вход (кэш): $0.026; вход (без кэша): $0.26; выход: $0.38 Режим рассуждений — руководство
Примечание: С 1 декабря 2025 года DeepSeek обновил deepseek-chat и deepseek-reasoner до DeepSeek-V3.2; для обоих действует единая базовая сетка цен с дифференциацией на запросы с кэшем и без него, а также общий базовый URL. В 2025 году существовала отдельная временная точка доступа API V3.2-Speciale с максимальной глубиной рассуждений, действовавшая до 15 декабря 2025; сейчас она недоступна, но сама модель V3.2-Speciale остаётся в открытом доступе для локального развёртывания.

Ключевые особенности

  • Совместимый с OpenAI формат API (современные SDK): вызовы через /chat/completions и совместимость с OpenAI SDK при указании base_url=https://api.deepseek.com и корректном model.
  • Разрежённое внимание DeepSeek (DSA) — селективный механизм внимания, фокусирующийся на релевантных токенах; более чем 50% снижение вычислительной стоимости и ускорение в 2–3 раза для длинных контекстов без заметной потери качества.
  • Гибридная архитектура V3.2: режим рассуждений и стандартный быстрый режим, доступные как через раздельные модели (deepseek-reasoner / deepseek-chat), так и через параметр thinking внутри одной модели в поддерживаемых конфигурациях.
  • Режимы JSON-вывода и вызова функций в обычном режиме и режиме рассуждений, с передачей tool_calls и интеграцией с агентами.
  • Публичный режим рассуждений с доступом к цепочке рассуждений через поле reasoning_content в сообщениях; возможна потоковая выдача хода рассуждений отдельно от финального ответа.
  • Полностью открытый исходный код (лицензия MIT) для DeepSeek-R1 и семейства DeepSeek-V3 (включая V3.2 и V3.2-Speciale); доступны полные веса на Hugging Face и GitHub, есть дистиллированные модели от 1.5 млрд до 70 млрд параметров для локального развёртывания.
  • Префикс автодополнения чата и заполнение середины (FIM) в обычном режиме для специализированных задач: автодополнение кода, подсказки IDE, завершение фрагментов.
  • Потоковая передача, кэширование контекста и файловое кэширование на диске для удешевления повторяющихся запросов; при высоком проценте попаданий в кэш экономия может достигать десятков процентов по сравнению с полным перерасчётом.
  • Кэш контекста: отдельный тариф для токенов, повторно использованных из кэша; фактические значения ставок и порогов следует уточнять на странице цен, так как они могут меняться.
  • Интеграция с математическим стеком DeepSeekMath-V2 и обучением с подкреплением DeepSeek-R1 для сложных задач рассуждений, доказательств и проверки логики.

Рекомендации по применению

  • deepseek-chat (V3.2): ассистенты и чат-боты общего назначения, структурированный вывод (JSON), интеграции через OpenAI-совместимые SDK, массовая обработка с минимальной стоимостью, промышленные приложения с вызовом инструментов. Подходит как базовая модель для продуктов, где важны низкая цена и стабильное качество.
  • deepseek-reasoner (V3.2/R1, режим рассуждений): задачи, критичные к качеству рассуждений — математика, сложное программирование, длинные многошаговые сценарии (планирование, анализ, рассуждения в несколько десятков шагов). Рекомендуется для STEM-задач, сложной аналитики и там, где допустима повышенная стоимость за счёт длинных цепочек рассуждений.
  • Открытые модели V3.x / V3.2-Speciale / R1 (локально): локальные развёртывания, где важен полный контроль над данными и инфраструктурой; эксперименты с модификацией архитектуры и обучения; сценарии, где ограничены или неприемлемы внешние API.

Ограничения и риски

  • Глубокие рассуждения в режиме рассуждений заметно увеличивают расход токенов: чем сложнее задача и чем глубже цепочка рассуждений, тем дороже запрос; особенно заметно для сложной математики и программирования.
  • В режиме рассуждений часть параметров генерации может игнорироваться или иметь ограниченное влияние; управление стилем ответа более жёсткое, зато поведение более детерминированно.
  • Актуальность знаний: по состоянию на публичную документацию, базовые модели обучены приблизительно до конца 2024 года; для информации после этой даты требуется веб-поиск или внешний источник знаний.
  • Базирование в Китае (Ханчжоу) может вызывать юридические и регуляторные вопросы у отдельных заказчиков, требуя отдельной оценки рисков и соответствия нормативным требованиям.
  • Цепочки рассуждений могут избыточно усложнять решение простых задач — модель стремится развернуть подробный ход мысли даже там, где достаточно краткого ответа; для простых запросов рекомендуется использовать обычный режим deepseek-chat без явного режима рассуждений.

Сравнение цен

Чат (подписка)

Провайдер План / уровень Цена (как в официальном источнике) Ссылка
DeepSeek Веб-чат / мобильное приложение Бесплатно (нет платных уровней для пользовательского чата по состоянию на март 2026) страница
OpenAI ChatGPT Plus $20 / месяц цены
Anthropic Claude Pro $20 / месяц (при помесячной оплате) цены
Google Google AI Pro (план Google One) $19.99 / месяц цены
Mistral Le Chat Pro €14.99 / месяц (≈ $14.99) цены

API (модели)

Провайдер Модель / ID вход (кэш), $/1M вход (без кэша), $/1M выход, $/1M Примечания Ссылка
DeepSeek deepseek-chat (V3.2) $0.026 $0.26 $0.38 Разрежённое внимание (DSA); промышленная модель; поддержка кэширования контекста цены
DeepSeek deepseek-reasoner (V3.2/R1) $0.026 $0.26 $0.38 Режим с рассуждениями; единая базовая сетка цен с чатом; отдельное поле reasoning_content цены
OpenAI gpt-5-mini $0.025 (кэш) $0.25 $2.00 Бюджетная версия GPT-5 для недорогих задач цены
OpenAI gpt-5.2 $0.175 (кэш) $1.75 $14.00 Флагманская модель GPT-5.2 цены
Anthropic Claude Sonnet 4.5 $0.30 (чтение из кэша) $3.00 $15.00 Поддержка кэширования запросов; для длинного контекста применяется повышенный тариф цены
Google gemini-2.5-flash $0.03 (кэш) $0.30 $2.50 Гибридная рассуждающая модель; контекст до 1M токенов цены
xAI grok-4-fast-reasoning $0.05 (чтение из кэша) $0.20 $0.50 До 2M токенов контекста; быстрый режим рассуждений цены

Бенчмарки (официальные; декабрь 2025)

Провайдер Модель / ID MMLU GPQA Diamond HumanEval MMLU Pro DROP AIME 2025 (Pass@1) HMMT Feb 2025 Источник
DeepSeek V3.2 (официальная версия) ~90.8% ~92% 93.1% ~92–95% Эквивалент V3.2-Exp / V3.1-Terminus по общим задачам
DeepSeek V3.2-Speciale (открытые веса) 96.0% 99.2% Максимальная глубина рассуждений; результаты на олимпиадах 2025 года
DeepSeek R1 90.80% 71.50% ~92.4% 84.00% 92.20% 79.8% (Pass@1), 86.7% (самосогласованность) github.com
OpenAI GPT-5 ~92.5% ~85.7% ~93.4% openai.com
Anthropic Claude Sonnet 4.5 ~83.4% ~90% anthropic.com
Anthropic Claude 3.5 Sonnet 90.40% 67.20% 93.70% 77.60% 87.10% anthropic.com
Google Gemini 2.5 Pro 86.4% ai.google.dev
xAI Grok 4 Heavy 88.40% x.ai

Обновления декабря 2025

  • DeepSeek-V3.2 — официальный релиз (1 декабря 2025) — замена V3.2-Exp на основную точку доступа для API, веб-версии и приложений; бесшовное обновление для всех пользователей; передовые показатели на задачах общего назначения; поддержка совмещённого режима рассуждений и вызова инструментов; около 93.1% на AIME 2025 и 92–95% на HMMT.
  • DeepSeek-V3.2-Speciale — вариант с максимальной глубиной рассуждений; рассуждения глубже примерно в 2–3 раза по сравнению с V3.2; до 96.0% на AIME 2025 и 99.2% на HMMT; ориентирован на сложные задачи математики и программирования; доступен как открытые веса.
  • DeepSeekMath-V2 и стек RL — интеграция механизма самопроверки математических доказательств и масштабное дообучение с подкреплением (RL), улучшающее проверку логики и вывод теорем.
  • Эффективность Разрежённого внимания DeepSeek (DSA) — селективное внимание к релевантным токенам; более чем 50% снижение стоимости API и ускорение в 2–3 раза для длинных контекстов; снижение потребления памяти без заметной потери качества.
  • Единое ценообразование для чата / рассуждений — интеграция кэша контекста и унификация цен для deepseek-chat и deepseek-reasoner с отдельными ставками для кэшированных и некэшированных токенов.
  • Открытый исходный код — DeepSeek-R1 и семейство DeepSeek-V3 (включая V3.2 и V3.2-Speciale) распространяются с открытыми весами под лицензией MIT; доступны уменьшенные дистиллированные модели, упрощающие локальное развёртывание и эксперименты.
  • Бесшовное обновление платформы — веб-версия, мобильные приложения (iOS/Android) и API обновляются синхронно; пользователям не требуется миграция на новые идентификаторы моделей — достаточно продолжать использовать deepseek-chat и deepseek-reasoner.

Новости

китайские OTA на мировом рынке

Китайские онлайн тревел-платформы выходят на мировой рынок благодаря ИИ-агентам

Крупнейшие онлайн-турагентства Китая переходят к использованию автономных ИИ-агентов для планирования и бронирования путешествий на мировом рынке.

китайские открытые модели и США

Экспансия открытых китайских ИИ-моделей может угрожать доминированию США

Китайские открытые модели ИИ захватывают рынок, позволяя Пекину конкурировать с США несмотря на дефицит чипов и экспортные ограничения.

Рассуждения в Chain-of-Thought неправдивые

Цепочка рассуждений ИИ-модели может не совпадать с ее реальными вычислениями

Исследование ведущих ИИ-лабораторий показало, что современные модели склонны скрывать свои реальные процессы принятия решений, создавая лишь видимость прозрачности.

Scientel запустила 6-триллионую модель

Компания Scientel запустила на суперкомпьютере гибридную модель DeepSeek на 6 трлн параметров

Scientel продемонстрировала масштабирование DeepSeek R1 до триллионного уровня параметров на суперкомпьютере OSC. Решение сочетает параллельные вычисления и NewSQL-архитектуру, делая ставку на локальные ИИ-системы вместо облачных API.

DeepSeek использовал контрабандные чипы Nvidia

Разработчик DeepSeek может использовать контрабандные чипы Nvidia для обучения моделей

Китайский разработчик ИИ DeepSeek, по данным The Information, обучает свою новую модель на тысячах контрабандных чипов Nvidia Blackwell, обходя американские экспортные ограничения.

Mistral выпустила Devstral 2

Mistral выпустила Devstral 2 — мощную модель для программистов с ограниченной лицензией

Mistral выпустила Devstral 2 — семейство моделей для программирования с открытыми весами, но с ограничениями для крупного бизнеса. Младшая версия свободна для использования, а флагманская требует лицензии при доходе свыше $20 млн.