DeepSeek

DeepSeek — провайдер больших языковых моделей с публичным API и веб-чатом; платформа для доступа к моделям через веб, мобильные приложения (iOS/Android) и OpenAI-совместимый API.

Линейка включает основную модель DeepSeek-V3.2 (официальная версия с поддержкой мышления и вызова инструментов), высокоинтенсивную рассуждающую модель DeepSeek-V3.2-Speciale, рассуждающую модель deepseek-reasoner (на базе R1) и диалоговую модель deepseek-chat.

Реализована полная совместимость с OpenAI-подобным API и поддержка JSON-вывода, Вызова функций, Префикса автодополнения чата, FIM (заполнения середины) и потоковой передачи.

Обновлено 19 декабря 2025 года.

Факты

Название DeepSeek
Официальный сайт deepseek.com
Документация api-docs.deepseek.com
Чат chat.deepseek.com
Страна Китай (Ханчжоу)
Разработчик DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.)
Открытый исходный код Да — R1, V3.2 и V3.2-Speciale опубликованы под лицензией MIT на Hugging Face и GitHub; поддержка локального развёртывания

Быстрые ссылки

История релизов

  • 2025-12-01 — DeepSeek-V3.2 (Официальная): запуск официальной версии с поддержкой рассуждений + вызова инструментов в параллельных режимах; замена V3.2-Exp на основной эндпоинт API; бесшовное обновление веб-версии, приложений и API без перерыва — ссылка
  • 2025-12-01 — DeepSeek-V3.2-Speciale: релиз версии ультра-инференс для максимальных рассуждений; 2-3x более глубокие рассуждения vs V3.2; «убийца закрытых o3/o4 с открытым кодом» — ссылка
  • 2025-09-29 — DeepSeek-V3.2-Exp: запуск экспериментальной версии с 50%+ снижением стоимости через Разреженное внимание DeepSeek (DSA); 2-3x ускорение для длинных контекстов — ссылка
  • 2025-09-05 — Уравнивание цен: чат и рассуждающая модель на одну сетку ($0.028/$0.28/$0.42); единое ценообразование — ссылка
  • 2025-08-21 — DeepSeek-V3.1-Terminus: официальный релиз с гибридной архитектурой (рассуждение + без рассуждения), улучшениями в вызове инструментов и агентах — ссылка
  • 2024-12-26 — DeepSeek-R1: представление открытой рассуждающей модели с RL-тренировкой; 79.8% на AIME 2024 — ссылка

Модели (API)

ID (для API) Тип / режим Контекст Кратко Поддержка / ограничения Цены ($/1M) Документация
deepseek-chat Чат (V3.2, без рассуждений) 128K Производственная диалоговая модель общего назначения (V3.2 официальная); использует Разреженное внимание DeepSeek для 50%+ снижения стоимости; поддерживает JSON-вывод, Вызов функций, параллельные режимы рассуждений и без них.
  • JSON-вывод: да
  • Вызов функций: полная поддержка
  • Префикс чата / FIM автодополнение: доступны
  • Потоковая передача: да
  • Режим рассуждений: да (контроль глубины)
  • Вызов инструментов: да, встроено
  • Производительность: уровень GPT-5; эквивалент V3.1-Terminus
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Модели и цены
deepseek-reasoning Рассуждающая (на базе R1, высокоинтенсивная) 128K Рассуждающая модель на базе R1; генерирует цепочку рассуждений; превосходит V3.2 в задачах математики, кодирования и сложной логики; поле reasoning_content для доступа к рассуждениям.
  • JSON-вывод: да
  • Вызов функций: полная поддержка
  • Цепочка рассуждений: да, с контролем глубины
  • Больше токенов рассуждений = более глубокие рассуждения
  • Потоковая передача: да
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Рассуждающая модель — гайд
deepseek-reasoning-v3.2-speciale Рассуждающая (ультра-инференс, макс. глубина, ВРЕМЕННАЯ) 128K Версия ультра-инференс V3.2-Speciale для максимальных рассуждений; 2-3x более глубокие рассуждения vs V3.2; лучшие показатели на задачах с тяжелыми рассуждениями; «убийца o3/o4 с открытым кодом»; только режим рассуждений.
  • JSON-вывод: да
  • Вызов функций: НЕ поддерживается (сосредоточена только на рассуждениях)
  • Режим рассуждений: да, максимальная интенсивность
  • 2-3x выше использование токенов vs V3.2 (вычисления максимальные)
  • Лучше для: STEM, математических доказательств, многошаговой логики (>30 шагов)
  • Временный эндпоинт, может быть отключен после 15.12.2025
вход (кэш): $0.028; вход (промах): $0.28; выход: $0.42 Техническая документация
Примечание: С 1 декабря 2025 года DeepSeek заменил V3.2-Exp на официальную V3.2; все модели выровнены на одну сетку цен. V3.2-Speciale временно доступна (специальный эндпоинт) до 15 декабря 2025, 15:59 UTC. После этой даты доступность зависит от отзывов сообщества.

Ключевые особенности

  • Совместимый с OpenAI формат API; мгновенная интеграция с OpenAI SDK
  • Разреженное внимание DeepSeek (DSA) — революционная техника внимания, селективно фокусирует внимание на релевантные токены; 50%+ снижение вычислительной стоимости для длинных контекстов (128K) без потери качества
  • Гибридная архитектура V3.2: режим рассуждений + стандартный режим (быстрые ответы) параллельно
  • Режимы JSON-вывода и Вызова функций
  • Публичный режим рассуждений с доступом к цепочке мыслей
  • Полностью открытый исходный код (Лицензия MIT) для R1, V3.2, V3.2-Speciale на Hugging Face и GitHub; поддерживается локальное развёртывание
  • Префикс автодополнения чата и Заполнение середины (FIM) для специализированных задач
  • Потоковая передача и кэширование контекста (попадание в кэш: 90% экономия vs промах кэша)
  • Кэширование контекста: $0.028/1M токенов (попадание) vs $0.28/1M (промах) — разница в 10 раз
  • Интеграция с DeepSeekMath-V2 в V3.2-Speciale для доказательства математических теорем и верификации логики

Рекомендации по применению

  • deepseek-chat (V3.2): ассистенты, структурированный вывод (JSON), интеграции через OpenAI SDK, массовая обработка с минимальной стоимостью, готовые к продакшну приложения с вызовом инструментов
  • deepseek-reasoning (на базе R1): задачи с рассуждениями (цепочка мыслей), математика, сложное кодирование, анализ, планирование; STEM-задачи, где точность важнее скорости
  • deepseek-reasoning-v3.2-speciale (ВРЕМЕННАЯ): максимальные рассуждения, доказательства в математике, многошаговая логика (>30 шагов), анализ исследовательского уровня; только до 15 декабря 2025

Ограничения и риски

  • V3.2 находится на ранней стадии официального релиза (1 декабря 2025); возможна нестабильность при масштабировании
  • DeepSeek-V3.2-Speciale не поддерживает Вызов функций; только режим рассуждений
  • Актуальность знаний: декабрь 2024 для основных моделей (обновляется через интеграцию с веб-поиском)
  • Базирование в Китае может вызвать юридические/нормативные беспокойства для некоторых пользователей (особенно предприятий США/ЕС)
  • Цепочки рассуждений могут содержать много токенов (дороговизна за сложные задачи); у V3.2-Speciale использование в 2-3 раза выше
  • Зависимость от качества RL-рассуждений; может «перемудрить» на простых задачах (динамическое распределение ресурсов, но не идеально)

Сравнение цен

Чат (подписка)

Провайдер План / уровень Цена (как в оф. источнике) Ссылка
DeepSeek Web Chat Бесплатно страница
OpenAI ChatGPT Plus $20 / месяц цены
Anthropic Claude Pro $20 / месяц цены
Google Google AI Pro $19.99 / месяц цены
Mistral Le Chat Pro €19 / месяц цены

API (модели)

Провайдер Модель / ID вход (кэш), $/1M вход (промах), $/1M выход, $/1M Примечания Ссылка
DeepSeek deepseek-chat (V3.2) $0.028 $0.28 $0.42 50%+ снижение (DSA); готова к продакшну; 90% экономия при попадании в кэш цены
DeepSeek deepseek-reasoning (на базе R1) $0.028 $0.28 $0.42 Рассуждающая; цены уравнены с чатом (5.09.2025); токены рассуждений в выводе цены
DeepSeek deepseek-reasoning-v3.2-speciale (TEMP) $0.028 $0.28 $0.42 Ультра-инференс; временный эндпоинт (до 15.12.2025 15:59 UTC); 2-3x выше использование техническая документация
OpenAI gpt-5-nano $0.005 (кэш) $0.05 $0.40 Самая дешёвая модель OpenAI (но менее способная) цены
OpenAI gpt-5 $0.125 (кэш) $1.25 $10.00 Флагман OpenAI; 4-10x дороже DeepSeek цены
Anthropic Claude Sonnet 4.5 $0.30 (кэш) $3.00 $15.00 Кэширование промптов; 10x дороже DeepSeek цены
Google gemini-2.5-flash $0.03 (кэш) $0.30 $2.50 Гибридные рассуждения; 1x дороже DeepSeek цены
xAI grok-4-fast-reasoning $0.05 (кэш) $0.20 (≤128k) / $0.40 (>128k) $0.50 (≤128k) / $1.00 (>128k) 2M контекст; 0.7-1.5x vs DeepSeek цены

Бенчмарки (официальные; декабрь 2025)

Провайдер Модель / ID MMLU GPQA Diamond HumanEval MMLU Pro DROP AIME 2025 (Pass@1) HMMT Feb 2025 Источник
DeepSeek V3.2 (Официальная) ~90.8% ~92% 93.1% 92.5% Эквивалент V3.2-Exp / V3.1-Terminus
DeepSeek V3.2-Speciale (TEMP) 96.0% 99.2% Временное превью эндпоинта; золотые медали IMO/CMO/ICPC/IOI 2025
DeepSeek R1 90.80% 71.50% ~92.4% 84.00% 92.20% 79.8% (Pass@1), 86.7% (самопроверка) github.com
OpenAI GPT-5 92.50% 85.70% 93.40% openai.com
Anthropic Claude Sonnet 4.5 83.40% ~90% anthropic.com
Anthropic Claude 3.5 Sonnet 90.40% 67.20% 93.70% 77.60% 87.10% anthropic.com
Google Gemini 2.5 Pro 86.4% ai.google.dev
xAI Grok 4 Heavy 88.40% x.ai

Обновления декабря 2025

  • DeepSeek-V3.2 Официальный релиз (1 декабря 2025) — официальный релиз; замена V3.2-Exp на основной API/web/app эндпоинт; бесшовное обновление для всех пользователей; лучшие показатели (SOTA) на задачах общего назначения; поддержка рассуждений + вызова инструментов параллельно; достигает 93.1% на AIME 2025 и 92.5% на HMMT
  • DeepSeek-V3.2-Speciale — версия ультра-инференс с максимальными рассуждениями; 2-3x более глубокие рассуждения vs V3.2; достигает 96.0% на AIME 2025 и 99.2% на HMMT; золотые медали в IMO/CMO/ICPC/IOI 2025; «убийца o3/o4 с открытым кодом»; только режим рассуждений, без вызова инструментов; ограниченный временный эндпоинт (15 декабря 2025, 15:59 UTC)
  • DeepSeekMath-V2 интеграция в V3.2-Speciale — интеграция механизма самопроверки для математических доказательств; улучшенная верификация логики и вывод теорем; поддержка формальных доказательств и пошаговой верификации
  • Эффективность Разреженного внимания DeepSeek (DSA) — селективное внимание на релевантные токены; 50%+ снижение стоимости API; 2-3x ускорение для длинных контекстов (128K); 30-40% снижение памяти; НУЛЕВАЯ потеря качества vs V3.1-Terminus
  • Единое ценообразование (5 сентября 2025) — чат и рассуждения на одну сетку: $0.028 (кэш) / $0.28 (промах входа) / $0.42 (выход); кэширование контекста дает 90% экономии при попадании
  • Всё с открытым исходным кодом — R1, V3.2, V3.2-Speciale веса под Лицензией MIT; полные веса моделей на Hugging Face и GitHub; поддержка локального развёртывания; дистиллированные уменьшенные модели (DeepSeek-R1-Distill-Qwen-7B: 55.5% AIME 2024)
  • Бесшовное обновление платформы — Веб, мобильные приложения (iOS/Android), API все обновлены одновременно; пользователи получают новую версию без дополнительных действий

 

Новости

DeepSeek использовал контрабандные чипы Nvidia

Разработчик DeepSeek может использовать контрабандные чипы Nvidia для обучения моделей

Китайский разработчик ИИ DeepSeek, по данным The Information, обучает свою новую модель на тысячах контрабандных чипов Nvidia Blackwell, обходя американские экспортные ограничения.

Mistral выпустила Devstral 2

Mistral выпустила Devstral 2 — мощную модель для программистов с ограниченной лицензией

Mistral выпустила Devstral 2 — семейство моделей для программирования с открытыми весами, но с ограничениями для крупного бизнеса. Младшая версия свободна для использования, а флагманская требует лицензии при доходе свыше $20 млн.

Deepseek V3.2 бросает вызов GPT-5 и Gemini 3

Deepseek бросает вызов GPT-5 и Gemini 3 Pro с новой моделью V3.2

Deepseek выпустил открытую модель V3.2, которая по математическим и программным тестам сравнялась с GPT-5 и Gemini 3 Pro, а её версия Speciale завоевала золото на международных олимпиадах.

Обучение MoE-моделей на 1024 GPU

AMD и PyTorch организовали эффективное обучение MoE-моделей на 1024 AMD GPU с TorchTitan

AMD и Meta* достигли 96% эффективности масштабирования при обучении MoE-моделей на 1024 GPU с помощью TorchTitan и Primus-Turbo.

DeepSeek выпустил математическую модель

DeepSeek выпустил открытую математическую модель уровня победителя олимпиады

Китайская компания DeepSeek выпустила открытую математическую модель, решающую задачи Международной олимпиады на уровне золотой медали, бросив вызов закрытым системам OpenAI и Google.

DeepSeek-R1 сжали в 10 раз

Китайские исследователи сжали модель DeepSeek-R1 в 10 раз без потери качества

Китайские ученые разработали метод квантового сжатия ИИ-моделей, уменьшив DeepSeek-R1 в 10 раз с сохранением 97% производительности.