DeepSeek Coder

Erstklassige Codegenerierung mit DeepSeek Coder auf Clore.ai

circle-info

Neuere Versionen verfügbar! DeepSeek-R1 (Schlussfolgerung + Codierung) und DeepSeek-V3 (Allzweck) sind deutlich leistungsfähiger. Siehe auch Qwen2.5-Coder für eine starke Alternative zur Codierung.

Beste Codegenerierung ihrer Klasse mit DeepSeek Coder-Modellen.

circle-check

Mieten auf CLORE.AI

  1. Nach GPU-Typ, VRAM und Preis filtern

  2. Wählen On-Demand (Festpreis) oder Spot (Gebotspreis)

  3. Konfigurieren Sie Ihre Bestellung:

    • Docker-Image auswählen

    • Ports festlegen (TCP für SSH, HTTP für Web-UIs)

    • Umgebungsvariablen bei Bedarf hinzufügen

    • Startbefehl eingeben

  4. Zahlung auswählen: CLORE, BTC, oder USDT/USDC

  5. Bestellung erstellen und auf Bereitstellung warten

Zugriff auf Ihren Server

  • Verbindungsdetails finden Sie in Meine Bestellungen

  • Webschnittstellen: Verwenden Sie die HTTP-Port-URL

  • SSH: ssh -p <port> root@<proxy-address>

Was ist DeepSeek Coder?

DeepSeek Coder bietet:

  • Modernste Codegenerierung

  • 338 Programmiersprachen

  • Fill-in-the-middle-Unterstützung

  • Repository-übergreifendes Verständnis

Modellvarianten

Modell
Parameter
VRAM
Kontext

DeepSeek-Coder-1.3B

1,3B

3GB

16K

DeepSeek-Coder-6.7B

6.7B

8GB

16K

DeepSeek-Coder-33B

33B

40GB

16K

DeepSeek-Coder-V2

16B/236B

20GB+

128K

Schnelle Bereitstellung

Docker-Image:

Ports:

Befehl:

Zugriff auf Ihren Dienst

Nach der Bereitstellung finden Sie Ihre http_pub URL in Meine Bestellungen:

  1. Gehen Sie zur Meine Bestellungen Seite

  2. Klicken Sie auf Ihre Bestellung

  3. Finden Sie die http_pub URL (z. B., abc123.clorecloud.net)

Verwenden Sie https://IHRE_HTTP_PUB_URL anstelle von localhost in den Beispielen unten.

Verwendung von Ollama

Installation

Codegenerierung

Fill-in-the-Middle (FIM)

DeepSeek-Coder-V2

Neueste und leistungsstärkste:

vLLM-Server

API-Nutzung

Code-Review

Fokus auf:

  1. Leistung

  2. Lesbarkeit

  3. Best Practices """} ]

"""} ]

Leistung

Modell
GPU
Tokens/sec

DeepSeek-1.3B

RTX 3060

~120

DeepSeek-6.7B

RTX 3090

~70

DeepSeek-6.7B

RTX 4090

~100

DeepSeek-33B

A100

~40

DeepSeek-V2-Lite

RTX 4090

~50

Vergleich

Modell
HumanEval
Codequalität

DeepSeek-Coder-33B

79.3%

Ausgezeichnet

CodeLlama-34B

53.7%

Gut

GPT-3.5-Turbo

72.6%

Gut

Fehlerbehebung

Codevervollständigung funktioniert nicht

  • Stelle das korrekte Prompt-Format sicher mit <|fim_prefix|>, <|fim_suffix|>, <|fim_middle|>

  • Setze geeignete max_new_tokens für die Codegenerierung

Modell liefert Müll

  • Überprüfe, ob das Modell vollständig heruntergeladen ist

  • Verifiziere, dass CUDA verwendet wird: model.device

  • Versuche eine niedrigere Temperatur (0,2–0,5 für Code)

Langsame Inferenz

  • Verwende vLLM für 5–10x Geschwindigkeit

  • Aktivieren Sie torch.compile() für transformers

  • Verwende quantisiertes Modell für große Varianten

Importfehler

  • Installiere Abhängigkeiten: pip install transformers accelerate

  • Aktualisiere PyTorch auf 2.0+

Kostenabschätzung

Typische CLORE.AI-Marktplatztarife (Stand 2024):

GPU
Stundensatz
Tagessatz
4-Stunden-Sitzung

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Preise variieren je nach Anbieter und Nachfrage. Prüfen Sie CLORE.AI Marketplacearrow-up-right auf aktuelle Preise.

Geld sparen:

  • Verwenden Sie Spot Markt für flexible Workloads (oft 30–50% günstiger)

  • Bezahlen mit CLORE Token

  • Preise bei verschiedenen Anbietern vergleichen

Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?