DeepSeek-V3

Exécutez DeepSeek-V3 avec un raisonnement exceptionnel sur les GPU Clore.ai

Exécutez DeepSeek-V3, le modèle LLM open-source à la pointe avec des capacités de raisonnement exceptionnelles sur les GPU CLORE.AI.

circle-check
circle-info

Mis à jour : DeepSeek-V3-0324 (mars 2024) — La dernière révision de DeepSeek-V3 apporte des améliorations significatives en génération de code, raisonnement mathématique et résolution générale de problèmes. Voir le journal des modifications pour les détails.

Pourquoi DeepSeek-V3 ?

  • À la pointe de la technologie - Rivalise avec GPT-4o et Claude 3.5 Sonnet

  • 671B MoE - 671B paramètres au total, 37B actifs par token (inférence efficace)

  • Raisonnement amélioré - DeepSeek-V3-0324 est nettement meilleur en mathématiques et en code

  • Efficace - L’architecture MoE réduit les coûts de calcul par rapport aux modèles denses

  • Open source - Poids entièrement ouverts sous licence MIT

  • Contexte long - Fenêtre de contexte de 128K tokens

Quoi de neuf dans DeepSeek-V3-0324

DeepSeek-V3-0324 (révision de mars 2024) introduit des améliorations significatives dans des domaines clés :

Génération de code

  • +8-12 % sur HumanEval par rapport au V3 original

  • Meilleur sur les bases de code multi-fichiers et les tâches de refactorisation complexes

  • Compréhension améliorée des frameworks modernes (FastAPI, Pydantic v2, LangChain v0.3)

  • Plus fiable pour générer du code complet et exécutable sans omissions

Raisonnement mathématique

  • +5 % sur MATH-500 benchmark

  • Meilleure construction de preuves étape par étape

  • Précision numérique améliorée pour les problèmes à étapes multiples

  • Capacité renforcée à identifier et corriger les erreurs en cours de solution

Raisonnement général

  • Déduction logique et inférence causale renforcées

  • Meilleur pour les tâches de planification à étapes multiples

  • Performance plus cohérente sur les cas limites et les invites ambiguës

  • Meilleure conformité aux instructions pour les requêtes complexes à contraintes multiples

Déploiement rapide sur CLORE.AI

Image Docker :

Ports :

Commande (multi-GPU requis) :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Vérifiez que cela fonctionne

circle-exclamation

Variantes de modèle

Modèle
Paramètres
Actif
VRAM requise
HuggingFace

Exigences matérielles

Précision complète

Modèle
Minimum
Recommandé

DeepSeek-V3-0324

8x A100 80Go

8x H100 80GB

DeepSeek-V2.5

4x A100 80GB

4x H100 80GB

DeepSeek-V2-Lite

RTX 4090 24GB

A100 40GB

Quantifié (AWQ/GPTQ)

Modèle
Quantification
VRAM

DeepSeek-V3-0324

INT4

4x80GB

DeepSeek-V2.5

INT4

2x80 Go

DeepSeek-V2-Lite

INT4

8 Go

Installation

Utilisation de vLLM (recommandé)

Utilisation de Transformers

Utilisation d'Ollama

Utilisation de l'API

API compatible OpenAI (vLLM)

Streaming

cURL

DeepSeek-V2-Lite (GPU unique)

Pour les utilisateurs avec du matériel limité :

Génération de code

DeepSeek-V3-0324 est le meilleur pour le code :

Tâches de code avancées où V3-0324 excelle :

Mathématiques et raisonnement

Configuration multi-GPU

8x GPU (Modèle complet — V3-0324)

4x GPU (V2.5)

Performances

Débit (tokens/sec)

Modèle
GPUs
Contexte
Tokens/sec

DeepSeek-V3-0324

8x H100

32K

~85

DeepSeek-V3-0324

8x A100 80Go

32K

~52

DeepSeek-V3-0324 INT4

4x A100 80GB

16K

~38

DeepSeek-V2.5

4x A100 80GB

16K

~70

DeepSeek-V2.5

2x A100 80Go

8K

~45

DeepSeek-V2-Lite

RTX 4090

8K

~40

DeepSeek-V2-Lite

RTX 3090

4K

~25

Temps jusqu'au premier token (TTFT)

Modèle
Configuration
TTFT

DeepSeek-V3-0324

8x H100

~750ms

DeepSeek-V3-0324

8x A100

~1100ms

DeepSeek-V2.5

4x A100

~500ms

DeepSeek-V2-Lite

RTX 4090

~150ms

Utilisation mémoire

Modèle
Précision
VRAM requise

DeepSeek-V3-0324

FP16

8x 80GB

DeepSeek-V3-0324

INT4

4x 80GB

DeepSeek-V2.5

FP16

4x 80GB

DeepSeek-V2.5

INT4

2x 80GB

DeepSeek-V2-Lite

FP16

20Go

DeepSeek-V2-Lite

INT4

10Go

Benchmarks

DeepSeek-V3-0324 vs concurrence

Benchmark
V3-0324
V3 (original)
GPT-4o
Claude 3.5 Sonnet

MMLU

88.5%

87.1%

88.7%

88.3%

HumanEval

90.2%

82.6%

90.2%

92.0%

MATH-500

67.1%

61.6%

76.6%

71.1%

GSM8K

92.1%

89.3%

95.8%

96.4%

LiveCodeBench

72.4%

65.9%

71.3%

73.8%

Classement Codeforces

1850

1720

1780

1790

Remarque : l’amélioration MATH-500 de V3 → V3-0324 est de +5,5 points de pourcentage.

Docker Compose

Résumé des exigences GPU

Cas d'utilisation
Configuration recommandée
Coût/heure

DeepSeek-V3-0324 complet

8x A100 80Go

~$2.00

DeepSeek-V2.5

4x A100 80GB

~$1.00

Développement/Test

RTX 4090 (V2-Lite)

~$0.10

API de production

8x H100 80GB

~$3.00

Estimation des coûts

Tarifs typiques du marketplace CLORE.AI :

Configuration GPU
Tarif horaire
Tarif journalier

RTX 4090 24GB

~$0.10

~$2.30

A100 40GB

~$0.17

~$4.00

A100 80GB

~$0.25

~$6.00

4x A100 80GB

~$1.00

~$24.00

8x A100 80Go

~$2.00

~$48.00

Les prix varient selon le fournisseur. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot marché pour le développement (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Utilisez DeepSeek-V2-Lite pour les tests avant de monter en charge

Dépannage

Mémoire insuffisante

Téléchargement du modèle lent

Erreur trust_remote_code

Multi-GPU ne fonctionne pas

DeepSeek vs autres

Fonction
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B

Paramètres

671B (37B actifs)

405B

176B (44B actifs)

Contexte

128K

128K

64K

Code

Excellent

Excellent

Bon

Mathématiques

Excellent

Bon

Bon

VRAM min

8x80GB

8x80GB

2x80 Go

Licence

MIT

Llama 3.1

Apache 2.0

Utilisez DeepSeek-V3 lorsque :

  • Meilleure performance de raisonnement nécessaire

  • La génération de code est l’usage principal

  • Les tâches de mathématiques/logique sont importantes

  • Disposez d’une configuration multi-GPU

  • Souhaitez des poids entièrement open-source (licence MIT)

Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?