Факты
Название | DeepSeek |
Официальный сайт | deepseek.com |
Документация | api-docs.deepseek.com |
Чат | chat.deepseek.com |
Страна / HQ | Китай |
Разработчик | DeepSeek (Hangzhou DeepSeek Artificial Intelligence Co., Ltd.) |
Быстрые ссылки
История релизов
- 2025-08-21 — Обновление V3.1 (совместимость, стабильность, улучшения) — ссылка
- 2024-12-26 — Релиз DeepSeek-V3 (модель/репозиторий) — ссылка
Модели (API)
ID (для API) | Тип / режим | Контекст | Кратко | Поддержка / ограничения | Цены ($/1M) | Документация |
---|---|---|---|---|---|---|
deepseek-chat |
Чат (non-thinking) | не указано | Диалоговая модель общего назначения; JSON-вывод; Function Calling. |
|
in (hit): $0.07; in (miss): $0.27; out: $1.10 | Models & Pricing |
deepseek-reasoner |
Reasoning (thinking) | не указано | Генерирует reasoning-трейс; доступ к reasoning_content . |
|
in (hit): $0.14; in (miss): $0.55; out: $2.19 | Reasoner — гайд |
Ключевые особенности
- OpenAI-совместимый формат API (base_url= https://api.deepseek.com)
- Режимы JSON Output и Function Calling
- Публичный reasoning-режим с доступом к thinking-трейсу
Рекомендации по применению
deepseek-chat
: ассистенты, строго структурированный вывод (JSON), интеграции через OpenAI-совместимые SDKdeepseek-reasoner
: задачи с обоснованием (CoT), анализ/планирование
Ограничения и риски
deepseek-reasoner
не поддерживает Function Calling- Актуальные лимиты и контекст нужно уточнять в официальных доках
Бенчмарки
Бенчмарки провайдера
Метрика | Значение | Модель / ID | Источник |
---|---|---|---|
MMLU | 90.8 | DeepSeek-V3 | официально |
HumanEval (pass@1) | 92.4 | DeepSeek-V3 | официально |
MATH-500 | 88.9 | DeepSeek-V3 | официально |
Сравнение с ближайшими конкурентами
Провайдер | Модель / ID | MMLU | GPQA | HumanEval | MATH-500 | SWE-bench Verified | Источник |
---|---|---|---|---|---|---|---|
OpenAI | GPT-4.1 nano | 80.1 | 50.3 | не указано | не указано | не указано | официально |
Anthropic | Claude Sonnet 4 | не указано | 70.0 (GPQA Diamond, без extended thinking) | не указано | не указано | 72.7 | официально |
Gemini 2.5 Pro | не указано | 86.4 (GPQA Diamond, single attempt) | не указано | не указано | 59.6 (single attempt) | официально | |
xAI | Grok-4 Heavy | не указано | не указано | не указано | не указано | не указано | официально |
Mistral | Mistral Large 2 / Mistral-Large-Instruct-2407 | 84.0 | не указано | 92 | не указано | не указано | официально |
Сравнение цен
Чат (подписка)
Провайдер | План / уровень | Цена (как в оф. источнике) | Ссылка |
---|---|---|---|
DeepSeek | Web Chat | Бесплатно (как заявлено на сайте) | страница |
OpenAI | ChatGPT Plus | $20 / месяц | прайсинг |
Anthropic | Claude Pro | $20 / месяц (или $17/мес при годовой оплате) | прайсинг |
Google AI Pro | $19.99 / месяц | прайсинг | |
Mistral | Mistral Chat | €19 / месяц | прайсинг |
xAI | Grok (через X Premium+) | не указано на x.ai | страница |
API (модели)
Провайдер | Модель / ID | in (hit), $/1M | in (miss), $/1M | out, $/1M | Примечания | Ссылка |
---|---|---|---|---|---|---|
DeepSeek | deepseek-chat |
$0.07 | $0.27 | $1.10 | — | прайсинг |
DeepSeek | deepseek-reasoner |
$0.14 | $0.55 | $2.19 | — | прайсинг |
OpenAI | gpt-4o-mini |
$0.30 | $0.60 | $2.40 | кэшированное «in» = cached input | прайсинг |
Anthropic | Claude Sonnet 4 |
не указано | $3.00 (input ≤200K) | $15.00 (output ≤200K) | Prompt caching: write $3.75 / read $0.30 (≤200K) | прайсинг |
gemini-2.5-flash |
— | $0.30 | $2.50 | цены как в оф. анонсе | прайсинг | |
xAI | grok-2 |
$0.10 | $2.00 | $10.00 | Cache write $1.00 / read $0.10 | прайсинг |
Бенчмарки (официальные)
Провайдер | Модель / ID | MMLU | GPQA | HumanEval | MMLU Pro | DROP | Источник |
---|---|---|---|---|---|---|---|
DeepSeek | DeepSeek-R1 | 90.80% | 71.50% | — | 84.00% | 92.20% | deepseek.com |
OpenAI | GPT-5 | 92.50% | 85.70% | 93.40% | — | — | openai.com |
Anthropic | Claude 3.5 Sonnet | 90.40% | 67.20% | 93.70% | 77.60% | 87.10% | anthropic.com |
Gemini 1.5 Pro | 85.90% | 59.10% | 84.10% | 75.80% | 74.90% | google.dev | |
xAI | Grok-2 | 87.50% | 56.00% | 88.40% | 75.50% | — | x.ai |
Mistral | Mistral Small 3.1 24B Base | 81.00% | 37.50% | — | 56.00% | — | mistral.ai |