DeepSeek-V3

Запускайте DeepSeek-V3 с выдающимися способностями к рассуждению на GPU Clore.ai

Запустите DeepSeek-V3, передовую открытую LLM с выдающимися способностями к рассуждению на GPU CLORE.AI.

circle-check
circle-info

Обновлено: DeepSeek-V3-0324 (март 2024) — Последняя версия DeepSeek-V3 приносит значительные улучшения в генерации кода, математическом рассуждении и общем решении задач. См. журнал изменений для подробностей.

Почему DeepSeek-V3?

  • Передовой уровень - Соперничает с GPT-4o и Claude 3.5 Sonnet

  • 671B MoE - 671B параметров всего, 37B активных на токен (эффективный вывод)

  • Улучшенное рассуждение - DeepSeek-V3-0324 значительно лучше в математике и коде

  • Эффективно - Архитектура MoE снижает затраты вычислений по сравнению с плотными моделями

  • Открытый исходный код - Полностью открытые веса под лицензией MIT

  • Длинный контекст - Контекстное окно 128K токенов

Что нового в DeepSeek-V3-0324

DeepSeek-V3-0324 (ревизия марта 2024) вводит значимые улучшения в ключевых областях:

Генерация кода

  • +8-12% по HumanEval по сравнению с оригинальным V3

  • Лучше работает с многофайловыми кодовыми базами и сложными задачами рефакторинга

  • Улучшенное понимание современных фреймворков (FastAPI, Pydantic v2, LangChain v0.3)

  • Более надежен при генерации полного, исполняемого кода без пропусков

Математическое рассуждение

  • +5% по MATH-500 бенчмарку

  • Лучшее пошаговое построение доказательств

  • Улучшенная числовая точность для многошаговых задач

  • Повышенная способность выявлять и исправлять ошибки в середине решения

Общее рассуждение

  • Сильнее логические выводы и причинно-следственные умозаключения

  • Лучше в задачах планирования с несколькими шагами

  • Более последовательная работа на пограничных случаях и в неоднозначных подсказках

  • Улучшенное следование инструкциям при сложных запросах с множественными ограничениями

Быстрое развертывание на CLORE.AI

Docker-образ:

Порты:

Команда (требуется несколько GPU):

Доступ к вашему сервису

После развертывания найдите ваш http_pub URL в Моих заказах:

  1. Перейдите на Моих заказах страницу

  2. Нажмите на ваш заказ

  3. Найдите http_pub URL (например, abc123.clorecloud.net)

Используйте https://YOUR_HTTP_PUB_URL вместо localhost в примерах ниже.

Проверьте, что всё работает

circle-exclamation

Варианты моделей

Модель
Параметры
Активен
Требуемая VRAM
HuggingFace

Требования к аппаратному обеспечению

Полная точность

Модель
Минимум
Рекомендуется

DeepSeek-V3-0324

8x A100 80GB

8x H100 80GB

DeepSeek-V2.5

4x A100 80GB

4x H100 80GB

DeepSeek-V2-Lite

RTX 4090 24GB

A100 40GB

Квантование (AWQ/GPTQ)

Модель
Квантование
VRAM

DeepSeek-V3-0324

INT4

4x80GB

DeepSeek-V2.5

INT4

2x80 ГБ

DeepSeek-V2-Lite

INT4

8GB

Установка

Использование vLLM (рекомендуется)

Использование Transformers

Использование Ollama

Использование API

Совместимый с OpenAI API (vLLM)

Потоковая передача (Streaming)

cURL

DeepSeek-V2-Lite (один GPU)

Для пользователей с ограниченным оборудованием:

Генерация кода

DeepSeek-V3-0324 — лучший в своём классе для кода:

Продвинутые задачи с кодом, где V3-0324 превосходит:

Математика и рассуждение

Конфигурация с несколькими GPU

8x GPU (Полная модель — V3-0324)

4x GPU (V2.5)

Производительность

Пропускная способность (токенов/сек)

Модель
GPU
Контекст
Токенов/с

DeepSeek-V3-0324

8x H100

32K

~85

DeepSeek-V3-0324

8x A100 80GB

32K

~52

DeepSeek-V3-0324 INT4

4x A100 80GB

16K

~38

DeepSeek-V2.5

4x A100 80GB

16K

~70

DeepSeek-V2.5

2x A100 80GB

8K

~45

DeepSeek-V2-Lite

RTX 4090

8K

~40

DeepSeek-V2-Lite

RTX 3090

4K

~25

Время до первого токена (TTFT)

Модель
Конфигурация
TTFT

DeepSeek-V3-0324

8x H100

~750ms

DeepSeek-V3-0324

8x A100

~1100ms

DeepSeek-V2.5

4x A100

~500ms

DeepSeek-V2-Lite

RTX 4090

~150ms

Использование памяти

Модель
Точность
Требуемая VRAM

DeepSeek-V3-0324

FP16

8x 80GB

DeepSeek-V3-0324

INT4

4x 80GB

DeepSeek-V2.5

FP16

4x 80GB

DeepSeek-V2.5

INT4

2x 80GB

DeepSeek-V2-Lite

FP16

20GB

DeepSeek-V2-Lite

INT4

10GB

Бенчмарки

DeepSeek-V3-0324 против конкурентов

Бенчмарк
V3-0324
V3 (оригинал)
GPT-4o
Claude 3.5 Sonnet

MMLU

88.5%

87.1%

88.7%

88.3%

HumanEval

90.2%

82.6%

90.2%

92.0%

MATH-500

67.1%

61.6%

76.6%

71.1%

GSM8K

92.1%

89.3%

95.8%

96.4%

LiveCodeBench

72.4%

65.9%

71.3%

73.8%

Рейтинг Codeforces

1850

1720

1780

1790

Примечание: улучшение по MATH-500 от V3 → V3-0324 составляет +5.5 процентных пункта.

Docker Compose

Краткое резюме требований к GPU

Случай использования
Рекомендуемая настройка
Стоимость/час

Полный DeepSeek-V3-0324

8x A100 80GB

~$2.00

DeepSeek-V2.5

4x A100 80GB

~$1.00

Разработка/тестирование

RTX 4090 (V2-Lite)

~$0.10

Продакшн API

8x H100 80GB

~$3.00

Оценка стоимости

Типичные расценки на маркетплейсе CLORE.AI:

Конфигурация GPU
Почасовая ставка
Дневная ставка

RTX 4090 24GB

~$0.10

~$2.30

A100 40GB

~$0.17

~$4.00

A100 80GB

~$0.25

~$6.00

4x A100 80GB

~$1.00

~$24.00

8x A100 80GB

~$2.00

~$48.00

Цены варьируются в зависимости от провайдера. Проверьте CLORE.AI Marketplacearrow-up-right для текущих тарифов.

Экономьте деньги:

  • Используйте Spot рынок для разработки (часто на 30–50% дешевле)

  • Платите с помощью CLORE токенов

  • Используйте DeepSeek-V2-Lite для тестирования перед масштабированием

Устранение неполадок

Недостаточно памяти

Медленная загрузка модели

Ошибка trust_remote_code

Много-GPU не работает

DeepSeek против других

Функция
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B

Параметры

671B (37B активных)

405B

176B (44B активных)

Контекст

128K

128K

64K

Код

Отлично

Отлично

Хорошо

Математика

Отлично

Хорошо

Хорошо

Мин. VRAM

8x80GB

8x80GB

2x80 ГБ

Лицензия

MIT

Llama 3.1

Apache 2.0

Используйте DeepSeek-V3 когда:

  • Требуется наилучшее качество рассуждений

  • Генерация кода является основной задачей

  • Важны задачи по математике/логике

  • Доступна конфигурация с несколькими GPU

  • Хотите полностью открытые веса (лицензия MIT)

Дальнейшие шаги

  • vLLM - Сервер для деплоя

  • DeepSeek-R1 - Вариант, специализированный на рассуждениях

  • DeepSeek Coder - Вариант, ориентированный на код

  • Ollama - Проще в развертывании

  • Донастройка LLM - Пользовательская дообучение

Последнее обновление

Это было полезно?