DeepSeek

DeepSeek — провайдер больших языковых моделей с публичным API и веб-чатом; платформа для доступа к моделям через веб-интерфейс, мобильные приложения (iOS/Android) и OpenAI-совместимый API.

Текущая линейка облачных моделей включает DeepSeek-V3.2 в двух режимах доступа через единый API: диалоговую модель без явного режима рассуждений и рассуждающую модель с цепочкой рассуждений. Обе работают на базе архитектуры V3.2, поддерживают режим «thinking» (режим рассуждений) и тесную интеграцию с вызовом инструментов; отдельный высокоинтенсивный вариант DeepSeek-V3.2-Speciale доступен как открытая модель для локального развёртывания.

Реализована полная совместимость с OpenAI-подобным API, поддерживаются JSON-вывод, вызовы инструментов, префикс автодополнения чата, FIM (заполнение середины, только в обычном режиме), а также потоковая передача. Режим рассуждений предоставляет явное поле `reasoning_content` и может сочетаться с вызовом инструментов через параметр `thinking`.

Обновлено 9 февраля 2026 года.

Факты

Название DeepSeek
Официальный сайт deepseek.com
Документация api-docs.deepseek.com
Чат chat.deepseek.com
Страна Китай (Ханчжоу)
Разработчик DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.)
Открытый исходный код Да — DeepSeek-R1, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale опубликованы под лицензией MIT с открытыми весами на Hugging Face и GitHub; поддерживается локальное развёртывание и дистилляция.

Быстрые ссылки

История релизов

  • 2025-12-01 — DeepSeek-V3.2 (официальная): запуск официальной версии V3.2 с режимом рассуждений и поддержкой вызова инструментов в обычном режиме и режиме рассуждений; обновление моделей API (`deepseek-chat` и `deepseek-reasoner`) и веб-сервисов/приложений до V3.2 без изменений интерфейсов — ссылка
  • 2025-12-01 — DeepSeek-V3.2-Speciale: выпуск открытого высокоинтенсивного варианта, ориентированного на максимально глубокие рассуждения; существенно более глубокие рассуждения по сравнению с V3.2 и золотые медали на олимпиадах IMO/IOI/ICPC; в 2025 году предоставлялся ограниченный временный API-эндпоинт до 15 декабря 2025, далее модель используется преимущественно через открытые веса — ссылка
  • 2025-09-29 — DeepSeek-V3.2-Exp: запуск экспериментальной версии с более чем 50% снижением стоимости за счёт Разрежённого внимания DeepSeek (DSA); ускорение в 2–3 раза для длинных контекстов; позднее заменена официальной V3.2 как основным API-эндпоинтом — ссылка
  • 2025-09-05 — Уравнивание цен: переход deepseek-chat и deepseek-reasoner на единую сетку цен, дальнейшая оптимизация стоимости за счёт кэширования контекста — ссылка
  • 2025-08-21 — DeepSeek-V3.1-Terminus: официальный релиз с гибридной архитектурой (рассуждения + быстрый режим), улучшениями вызова инструментов и работы агентов; впоследствии заменён линейкой V3.2 — ссылка
  • 2024-12-26 — DeepSeek-R1: представление открытой рассуждающей модели с RL-обучением; 79.8% на AIME 2024 и 97.3% на MATH-500 — ссылка

Модели (API)

ID (для API) Тип / режим Контекст Кратко Поддержка / ограничения Цены ($/1M) Документация
deepseek-chat Чат (V3.2, обычный режим по умолчанию) до 128K токенов контекста Производственная диалоговая модель общего назначения DeepSeek-V3.2. Оптимизирована под стоимость и скорость, использует Разрежённое внимание DeepSeek (DSA) для удешевления и ускорения длинных запросов; поддерживает JSON-вывод, вызов функций, режим рассуждений и параллельную работу рассуждающего и быстрого режима.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: полная поддержка
  • Префикс чата / автодополнение и FIM: поддерживаются в обычном режиме
  • Режим рассуждений: да, через параметр thinking (с доступом к reasoning_content)
  • Потоковая передача: да
  • Производительность: уровень GPT-5 на задачах общего назначения при существенно более низкой цене
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Модели и цены
deepseek-reasoner Рассуждающая (V3.2 в режиме рассуждений / DeepSeek-R1) до 128K токенов контекста; до 64K токенов вывода (включая рассуждения) Рассуждающая модель, реализующая цепочку рассуждений. Через API доступно поле reasoning_content с ходом рассуждений и content с финальным ответом. Превосходит стандартный V3.2 в задачах математики, программирования и сложной логики при увеличенном количестве токенов рассуждений.
  • JSON-вывод: да
  • Вызов функций / вызовы инструментов: поддерживаются в режиме рассуждений
  • Цепочка рассуждений: да, с контролем глубины через параметры и лимит токенов
  • Игнорируются параметры: temperature, top_p, presence_penalty, frequency_penalty; logprobs / top_logprobs вызывают ошибку
  • Потоковая передача: да (отдельные потоки для reasoning_content и ответа)
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Режим рассуждений — руководство
Примечание: С 1 декабря 2025 года DeepSeek обновил deepseek-chat и deepseek-reasoner до DeepSeek-V3.2; для обоих действует единая сетка цен и общий базовый URL. В 2025 году существовал отдельный временный API-эндпоинт V3.2-Speciale с максимальной глубиной рассуждений, действовавший до 15 декабря 2025; сейчас он недоступен, но сама модель V3.2-Speciale остаётся в открытом доступе для локального развёртывания.

Ключевые особенности

  • Совместимый с OpenAI формат API (современные SDK): вызовы через /chat/completions и совместимость с OpenAI SDK при указании base_url=https://api.deepseek.com
  • Разрежённое внимание DeepSeek (DSA) — селективный механизм внимания, фокусирующийся на релевантных токенах; более чем 50% снижение вычислительной стоимости и ускорение в 2–3 раза для длинных контекстов (около 128K токенов) без потери качества.
  • Гибридная архитектура V3.2: режим рассуждений и стандартный быстрый режим, доступные как через раздельные модели (deepseek-reasoner / deepseek-chat), так и через параметр thinking внутри одной модели.
  • Режимы JSON-вывода и вызова функций в обычном режиме и режиме рассуждений, с передачей tool_calls и интеграцией с агентами.
  • Публичный режим рассуждений с доступом к цепочке рассуждений через поле reasoning_content в сообщениях; возможна потоковая выдача хода рассуждений отдельно от финального ответа.
  • Полностью открытый исходный код (лицензия MIT) для DeepSeek-R1, DeepSeek-V3.2 и DeepSeek-V3.2-Speciale; доступны полные веса на Hugging Face и GitHub, есть дистиллированные модели от 1.5B до 70B параметров для локального развёртывания.
  • Префикс автодополнения чата и заполнение середины (FIM) в обычном режиме для специализированных задач: автодополнение кода, подсказки IDE, доавтодополнение фрагментов.
  • Потоковая передача, кэширование контекста и файловое кэширование на диске для резкого удешевления повторяющихся запросов (до 90% экономии при попадании в кэш).
  • Контекст-кэш: $0.028/1M токенов при попадании против $0.28/1M при промахе (цены для входных токенов); расчёт стоимости прозрачен и основан на фактическом числе токенов.
  • Интеграция с математическим стеком DeepSeekMath-V2 и RL-обучением DeepSeek-R1 для сложных задач рассуждений, доказательств и проверки логики.

Рекомендации по применению

  • deepseek-chat (V3.2): ассистенты и чат-боты общего назначения, структурированный вывод (JSON), интеграции через OpenAI-совместимые SDK, массовая обработка с минимальной стоимостью, продакшн-приложения с вызовом инструментов. Подходит как базовая модель для продуктов, где важны низкая цена и стабильное качество.
  • deepseek-reasoner (V3.2/R1, режим рассуждений): задачи, критичные к качеству рассуждений — математика, сложное программирование, длинные многошаговые сценарии (планирование, анализ, рассуждения в несколько десятков шагов). Рекомендуется для STEM-задач, сложной аналитики и там, где допустима повышенная стоимость за счёт длинных цепочек рассуждений.
  • Открытые модели V3.2 / V3.2-Speciale / R1 (локально): локальные развёртывания, где важен полный контроль над данными и инфраструктурой; эксперименты с модификацией архитектуры и обучения; сценарии, где ограничены или неприемлемы внешние API.

Ограничения и риски

  • Глубокие рассуждения в режиме рассуждений заметно увеличивают расход токенов: чем сложнее задача и чем глубже цепочка рассуждений, тем дороже запрос; особенно заметно для сложной математики и программирования.
  • В режиме рассуждений часть параметров генерации (temperature, top_p и др.) не используется; управление стилем ответа ограничено, зато поведение более детерминированно.
  • Актуальность знаний: по состоянию на документацию, базовые модели обучены приблизительно до конца 2024 года; для информации после этой даты требуется веб-поиск или внешний источник знаний.
  • Базирование в Китае (Ханчжоу) может вызывать юридические и регуляторные вопросы у отдельных заказчиков, требуя отдельной оценки рисков и соответствия требованиям комплаенса.
  • Цепочки рассуждений могут избыточно усложнять решение простых задач — модель стремится развернуть подробный ход мысли даже там, где достаточно краткого ответа; для простых запросов рекомендуется использовать обычный режим deepseek-chat без режима рассуждений.

Сравнение цен

Чат (подписка)

Провайдер План / уровень Цена (как в официальном источнике) Ссылка
DeepSeek Web Chat / мобильное приложение Бесплатно (нет платных уровней для потребительского чата) страница
OpenAI ChatGPT Plus $20 / месяц цены
Anthropic Claude Pro $20 / месяц (при помесячной оплате) цены
Google Google AI Pro (план Google One) $19.99 / месяц цены
Mistral Le Chat Pro €14.99 / месяц (≈ $14.99) цены

API (модели)

Провайдер Модель / ID вход (кэш), $/1M вход (промах), $/1M выход, $/1M Примечания Ссылка
DeepSeek deepseek-chat (V3.2) $0.028 $0.28 $0.42 Разрежённое внимание (DSA); продакшн-модель; до 90% экономии при попадании в кэш цены
DeepSeek deepseek-reasoner (V3.2/R1) $0.028 $0.28 $0.42 Режим с рассуждениями; единая сетка цен с чатом; отдельное поле reasoning_content цены
OpenAI gpt-5-mini $0.025 (кэш) $0.25 $2.00 Бюджетная версия GPT-5 для недорогих задач цены
OpenAI gpt-5.2 $0.175 (кэш) $1.75 $14.00 Флагманская модель GPT-5.2 цены
Anthropic Claude Sonnet 4.5 $0.30 (кэш-чтение) $3.00 (обычный вход ≤200K токенов) $15.00 Поддержка кэширования подсказок; для длинного контекста применяется повышенный тариф цены
Google gemini-2.5-flash $0.03 (кэш) $0.30 $2.50 Гибридная рассуждающая модель; контекст до 1M токенов цены
xAI grok-4-fast-reasoning $0.05 (кэш-чтение) $0.20 $0.50 До 2M токенов контекста; быстрый режим рассуждений цены

Бенчмарки (официальные; декабрь 2025)

Провайдер Модель / ID MMLU GPQA Diamond HumanEval MMLU Pro DROP AIME 2025 (Pass@1) HMMT Feb 2025 Источник
DeepSeek V3.2 (официальная) ~90.8% ~92% 93.1% ~92–95% Эквивалент V3.2-Exp / V3.1-Terminus по общим задачам
DeepSeek V3.2-Speciale (открытые веса) 96.0% 99.2% Максимальная глубина рассуждений; олимпиады 2025
DeepSeek R1 90.80% 71.50% ~92.4% 84.00% 92.20% 79.8% (Pass@1), 86.7% (самопроверка) github.com
OpenAI GPT-5 ~92.5% ~85.7% ~93.4% openai.com
Anthropic Claude Sonnet 4.5 ~83.4% ~90% anthropic.com
Anthropic Claude 3.5 Sonnet 90.40% 67.20% 93.70% 77.60% 87.10% anthropic.com
Google Gemini 2.5 Pro 86.4% ai.google.dev
xAI Grok 4 Heavy 88.40% x.ai

Обновления декабря 2025

  • DeepSeek-V3.2 — официальный релиз (1 декабря 2025) — замена V3.2-Exp на основной API/web/app-эндпоинт; бесшовное обновление для всех пользователей; передовые показатели на задачах общего назначения; поддержка совмещённого режима рассуждений и вызова инструментов; около 93.1% на AIME 2025 и 92–95% на HMMT.
  • DeepSeek-V3.2-Speciale — вариант с максимальной глубиной рассуждений; рассуждения глубже примерно в 2–3 раза по сравнению с V3.2; до 96.0% на AIME 2025 и 99.2% на HMMT; ориентирован на сложные задачи математики и программирования; доступен как открытые веса.
  • DeepSeekMath-V2 и стек RL — интеграция механизма самопроверки математических доказательств и масштабное RL-дообучение (DeepSeek-R1), улучшающее проверку логики и вывод теорем.
  • Эффективность Разрежённого внимания DeepSeek (DSA) — селективное внимание к релевантным токенам; более чем 50% снижение стоимости API и ускорение в 2–3 раза для длинных контекстов; снижение потребления памяти без заметной потери качества.
  • Единое ценообразование для чат / рассуждений — интеграция контекст-кэша и унификация цен для deepseek-chat и deepseek-reasoner; сетка $0.028 (кэш) / $0.28 (промах входа) / $0.42 (выход) за 1M токенов.
  • Открытый исходный код — DeepSeek-R1 и DeepSeek-V3.2 (включая V3.2-Speciale) распространяются с открытыми весами под лицензией MIT; доступны уменьшенные дистиллированные модели, упрощающие локальное развёртывание и эксперименты.
  • Бесшовное обновление платформы — веб-версия, мобильные приложения (iOS/Android) и API обновляются синхронно; пользователям не требуется миграция на новые идентификаторы моделей — достаточно продолжать использовать deepseek-chat и deepseek-reasoner.

Новости

DeepSeek откладывает новую модель ИИ из-за проблем с китайскими чипами

Китайская компания DeepSeek откладывает выпуск новой языковой модели из-за низкой производительности отечественных чипов, что подчёркивает технологические сложности в условиях санкций.

ИИ создает миллиардеров рекордными темпами: есть уже 498 единорогов с общей оценкой в $2,7 трлн

ИИ создаёт миллиардеров быстрее, чем когда-либо: 498 единорогов стоимостью $2,7 трлн, включая 100 новых за два года. Примеры: Anthropic, OpenAI, Thinking Machines Lab. Состояния основателей растут экспоненциально.

ИИ на поле боя: мысленный эксперимент о рисках и регулировании

Анализ применения искусственного интеллекта в современной войне, включая гонку вооружений и психологическое воздействие. Почему глобальное регулирование ИИ необходимо.

Неопределенность с импортом AI-чипов из США для Tencent не мешает развитию ИИ

Tencent заявляет о неопределённости поставок AI-чипов из США на фоне переговоров Вашингтона и Пекина, но подтверждает достаточность запасов для развития ИИ. Финансовые показатели роста.

Обложка анонса новых инструментов ИИ-инфраструктуры Lambda во втором квартале 2025 года

Lambda представила новые инструменты для ИИ-инфраструктуры во втором квартале 2025 года

Обзор новых инструментов Lambda для ИИ-инфраструктуры: управление кластерами, оптимизация инференса и интеграция MLflow во втором квартале 2025 года.

Исследователи Nvidia призывают индустрию пересмотреть подход к агентному ИИ в пользу компактных моделей

Исследователи Nvidia доказывают: малые языковые модели (SLM) эффективнее гигантских LLM для агентных систем. Экономия до 30 раз, локальный запуск и экология.