DeepSeek-V3

Führen Sie DeepSeek-V3 mit außergewöhnlichem Reasoning auf Clore.ai GPUs aus

Führen Sie DeepSeek-V3 aus, das modernste Open-Source-LLM mit außergewöhnlichen Schlussfolgerungsfähigkeiten auf CLORE.AI-GPUs.

circle-check
circle-info

Aktualisiert: DeepSeek-V3-0324 (März 2024) — Die neueste Revision von DeepSeek-V3 bringt erhebliche Verbesserungen bei der Codeerzeugung, mathematischen Argumentation und allgemeinen Problemlösung. Siehe das Changelog Abschnitt für Details.

Warum DeepSeek-V3?

  • State-of-the-art - Konkuriert mit GPT-4o und Claude 3.5 Sonnet

  • 671B MoE - 671B Gesamtparameter, 37B aktiv pro Token (effiziente Inferenz)

  • Verbesserte Schlussfolgerung - DeepSeek-V3-0324 ist deutlich besser in Mathematik und Code

  • Effizient - MoE-Architektur reduziert Rechenkosten im Vergleich zu dichten Modellen

  • Open Source - Vollständig offene Gewichte unter MIT-Lizenz

  • Langer Kontext - 128K Token Kontexfenster

Was ist neu in DeepSeek-V3-0324

DeepSeek-V3-0324 (Revision März 2024) führt bedeutende Verbesserungen in Schlüsselbereichen ein:

Codegenerierung

  • +8-12% bei HumanEval im Vergleich zum ursprünglichen V3

  • Besser bei Multi-Datei-Codebasen und komplexen Refaktorierungsaufgaben

  • Verbessertes Verständnis moderner Frameworks (FastAPI, Pydantic v2, LangChain v0.3)

  • Zuverlässiger bei der Erzeugung vollständigen, ausführbaren Codes ohne Auslassungen

Mathematische Argumentation

  • +5% beim MATH-500 Benchmark

  • Besserer schrittweiser Beweisaufbau

  • Verbesserte numerische Genauigkeit bei mehrstufigen Problemen

  • Erhöhte Fähigkeit, Fehler mitten in einer Lösung zu identifizieren und zu korrigieren

Allgemeine Schlussfolgerungen

  • Stärkere logische Deduktion und kausale Inferenz

  • Besser bei mehrstufigen Planungsaufgaben

  • Konsistentere Leistung bei Randfällen und mehrdeutigen Eingaben

  • Verbesserte Befolgung von Anweisungen bei komplexen, mehrfachen Einschränkungen

Schnelle Bereitstellung auf CLORE.AI

Docker-Image:

Ports:

Befehl (Mehrere GPUs erforderlich):

Zugriff auf Ihren Dienst

Nach der Bereitstellung finden Sie Ihre http_pub URL in Meine Bestellungen:

  1. Gehen Sie zur Meine Bestellungen Seite

  2. Klicken Sie auf Ihre Bestellung

  3. Finden Sie die http_pub URL (z. B., abc123.clorecloud.net)

Verwenden Sie https://IHRE_HTTP_PUB_URL anstelle von localhost in den Beispielen unten.

Überprüfen, ob es funktioniert

circle-exclamation

Modellvarianten

Modell
Parameter
Aktiv
Benötigter VRAM
HuggingFace

Hardware-Anforderungen

Volle Präzision

Modell
Minimum
Empfohlen

DeepSeek-V3-0324

8x A100 80GB

8x H100 80GB

DeepSeek-V2.5

4x A100 80GB

4x H100 80GB

DeepSeek-V2-Lite

RTX 4090 24GB

A100 40GB

Quantisiert (AWQ/GPTQ)

Modell
Quantisierung
VRAM

DeepSeek-V3-0324

INT4

4x80GB

DeepSeek-V2.5

INT4

2x80GB

DeepSeek-V2-Lite

INT4

8GB

Installation

Verwendung von vLLM (empfohlen)

Verwendung von Transformers

Verwendung von Ollama

API-Nutzung

OpenAI-kompatible API (vLLM)

Streaming

cURL

DeepSeek-V2-Lite (Single GPU)

Für Nutzer mit begrenzter Hardware:

Codegenerierung

DeepSeek-V3-0324 ist erstklassig für Code:

Erweiterte Codeaufgaben, in denen V3-0324 brilliert:

Mathematik & Schlussfolgerung

Multi-GPU-Konfiguration

8x GPU (Vollständiges Modell — V3-0324)

4x GPU (V2.5)

Leistung

Durchsatz (Tokens/Sek)

Modell
GPUs
Kontext
Tokens/sec

DeepSeek-V3-0324

8x H100

32K

~85

DeepSeek-V3-0324

8x A100 80GB

32K

~52

DeepSeek-V3-0324 INT4

4x A100 80GB

16K

~38

DeepSeek-V2.5

4x A100 80GB

16K

~70

DeepSeek-V2.5

2x A100 80GB

8K

~45

DeepSeek-V2-Lite

RTX 4090

8K

~40

DeepSeek-V2-Lite

RTX 3090

4K

~25

Zeit bis zum ersten Token (TTFT)

Modell
Konfiguration
TTFT

DeepSeek-V3-0324

8x H100

~750ms

DeepSeek-V3-0324

8x A100

~1100ms

DeepSeek-V2.5

4x A100

~500ms

DeepSeek-V2-Lite

RTX 4090

~150ms

Speichernutzung

Modell
Präzision
Benötigter VRAM

DeepSeek-V3-0324

FP16

8x 80GB

DeepSeek-V3-0324

INT4

4x 80GB

DeepSeek-V2.5

FP16

4x 80GB

DeepSeek-V2.5

INT4

2x 80GB

DeepSeek-V2-Lite

FP16

20GB

DeepSeek-V2-Lite

INT4

10GB

Benchmarks

DeepSeek-V3-0324 vs Konkurrenz

Benchmark
V3-0324
V3 (ursprünglich)
GPT-4o
Claude 3.5 Sonnet

MMLU

88.5%

87.1%

88.7%

88.3%

HumanEval

90.2%

82.6%

90.2%

92.0%

MATH-500

67.1%

61.6%

76.6%

71.1%

GSM8K

92.1%

89.3%

95.8%

96.4%

LiveCodeBench

72.4%

65.9%

71.3%

73.8%

Codeforces-Rating

1850

1720

1780

1790

Hinweis: MATH-500-Verbesserung von V3 → V3-0324 beträgt +5,5 Prozentpunkte.

Docker Compose

Zusammenfassung der GPU-Anforderungen

Einsatzgebiet
Empfohlene Konfiguration
Kosten/Stunde

Volles DeepSeek-V3-0324

8x A100 80GB

~$2.00

DeepSeek-V2.5

4x A100 80GB

~$1.00

Entwicklung/Testing

RTX 4090 (V2-Lite)

~$0.10

Produktions-API

8x H100 80GB

~$3.00

Kostenabschätzung

Typische CLORE.AI-Marktplatzpreise:

GPU-Konfiguration
Stundensatz
Tagessatz

RTX 4090 24GB

~$0.10

~$2.30

A100 40GB

~$0.17

~$4.00

A100 80GB

~$0.25

~$6.00

4x A100 80GB

~$1.00

~$24.00

8x A100 80GB

~$2.00

~$48.00

Preise variieren je nach Anbieter. Prüfe CLORE.AI Marketplacearrow-up-right auf aktuelle Preise.

Geld sparen:

  • Verwenden Sie Spot Markt für Entwicklung (oft 30–50% günstiger)

  • Bezahlen mit CLORE Token

  • Verwenden Sie DeepSeek-V2-Lite zum Testen, bevor Sie hochskalieren

Fehlerbehebung

Kein Speicher mehr

Modell-Download langsam

trust_remote_code-Fehler

Multi-GPU funktioniert nicht

DeepSeek vs Andere

Funktion
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B

Parameter

671B (37B aktiv)

405B

176B (44B aktiv)

Kontext

128K

128K

64K

Code

Ausgezeichnet

Großartig

Gut

Mathematik

Ausgezeichnet

Gut

Gut

Min. VRAM

8x80GB

8x80GB

2x80GB

Lizenz

MIT

Llama 3.1

Apache 2.0

Verwenden Sie DeepSeek-V3, wenn:

  • Beste Schlussfolgerungsleistung benötigt wird

  • Codegenerierung die primäre Verwendung ist

  • Mathematik/Logikaufgaben wichtig sind

  • Eine Multi-GPU-Umgebung verfügbar ist

  • Vollständig Open-Source-Gewichte (MIT-Lizenz) gewünscht sind

Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?