DeepSeek Coder

Génération de code de premier ordre avec DeepSeek Coder sur Clore.ai

circle-info

Des versions plus récentes disponibles ! DeepSeek-R1 (raisonnement + codage) et DeepSeek-V3 (usage général) sont nettement plus capables. Voir aussi Qwen2.5-Coder pour une solide alternative de codage.

Génération de code de premier ordre avec les modèles DeepSeek Coder.

circle-check

Location sur CLORE.AI

  1. Filtrer par type de GPU, VRAM et prix

  2. Choisir À la demande (tarif fixe) ou Spot (prix d'enchère)

  3. Configurez votre commande :

    • Sélectionnez l'image Docker

    • Définissez les ports (TCP pour SSH, HTTP pour les interfaces web)

    • Ajoutez des variables d'environnement si nécessaire

    • Entrez la commande de démarrage

  4. Sélectionnez le paiement : CLORE, BTC, ou USDT/USDC

  5. Créez la commande et attendez le déploiement

Accédez à votre serveur

  • Trouvez les détails de connexion dans Mes commandes

  • Interfaces Web : utilisez l'URL du port HTTP

  • SSH : ssh -p <port> root@<adresse-proxy>

Qu'est-ce que DeepSeek Coder ?

DeepSeek Coder offre :

  • Génération de code à la pointe

  • 338 langages de programmation

  • Prise en charge du remplissage au milieu

  • Compréhension au niveau du dépôt

Variantes de modèle

Modèle
Paramètres
VRAM
Contexte

DeepSeek-Coder-1.3B

1,3B

3 Go

16K

DeepSeek-Coder-6.7B

6,7B

8 Go

16K

DeepSeek-Coder-33B

33B

40Go

16K

DeepSeek-Coder-V2

16B/236B

20 Go+

128K

Déploiement rapide

Image Docker :

Ports :

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Utilisation d'Ollama

Installation

Génération de code

Remplissage au milieu (FIM)

DeepSeek-Coder-V2

Dernier et plus puissant :

Serveur vLLM

Utilisation de l'API

Revue de code

Se concentrer sur :

  1. Performances

  2. Lisibilité

  3. Meilleures pratiques """} ]

"""} ]

Performances

Modèle
GPU
Tokens/sec

DeepSeek-1.3B

RTX 3060

~120

DeepSeek-6.7B

RTX 3090

~70

DeepSeek-6.7B

RTX 4090

~100

DeepSeek-33B

A100

~40

DeepSeek-V2-Lite

RTX 4090

~50

Comparaison

Modèle
HumanEval
Qualité du code

DeepSeek-Coder-33B

79.3%

Excellent

CodeLlama-34B

53.7%

Bon

GPT-3.5-Turbo

72.6%

Bon

Dépannage

La complétion de code ne fonctionne pas

  • Assurez-vous du format correct de l'invite avec <|fim_prefix|>, <|fim_suffix|>, <|fim_middle|>

  • Définir approprié max_new_tokens pour la génération de code

Le modèle produit des déchets

  • Vérifiez que le modèle est entièrement téléchargé

  • Vérifiez que CUDA est utilisé : model.device

  • Essayez une température plus basse (0,2-0,5 pour le code)

Inférence lente

  • Utilisez vLLM pour un gain de vitesse de 5 à 10x

  • Activez torch.compile() pour transformers

  • Utilisez un modèle quantifié pour les variantes volumineuses

Erreurs d'importation

  • Installez les dépendances : pip install transformers accelerate

  • Mettez à jour PyTorch vers 2.0+

Estimation des coûts

Tarifs typiques du marché CLORE.AI (à partir de 2024) :

GPU
Tarif horaire
Tarif journalier
Session de 4 heures

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Les prix varient selon le fournisseur et la demande. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot market pour les charges de travail flexibles (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Comparer les prix entre différents fournisseurs

Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?