CodeLlama

Générez, complétez et expliquez du code avec CodeLlama sur Clore.ai

circle-info

Alternatives plus récentes ! Pour les tâches de codage, envisagez Qwen2.5-Coder (32B, génération de code à la pointe) ou DeepSeek-R1 (raisonnement + codage). CodeLlama reste utile pour les déploiements légers.

Générez, complétez et expliquez du code avec CodeLlama de Meta.

circle-check

Location sur CLORE.AI

  1. Filtrer par type de GPU, VRAM et prix

  2. Choisir À la demande (tarif fixe) ou Spot (prix d'enchère)

  3. Configurez votre commande :

    • Sélectionnez l'image Docker

    • Définissez les ports (TCP pour SSH, HTTP pour les interfaces web)

    • Ajoutez des variables d'environnement si nécessaire

    • Entrez la commande de démarrage

  4. Sélectionnez le paiement : CLORE, BTC, ou USDT/USDC

  5. Créez la commande et attendez le déploiement

Accédez à votre serveur

  • Trouvez les détails de connexion dans Mes commandes

  • Interfaces Web : utilisez l'URL du port HTTP

  • SSH : ssh -p <port> root@<adresse-proxy>

Variantes de modèle

Modèle
Taille
VRAM
Idéal pour

CodeLlama-7B

7B

8 Go

Complétion rapide

CodeLlama-13B

13B

16Go

Équilibré

CodeLlama-34B

34B

40Go

Meilleure qualité

CodeLlama-70B

70B

80 Go+

Qualité maximale

Variantes

  • Base: Complétion de code

  • Instruct: Suivre les instructions

  • Python: Spécialisé Python

Déploiement rapide

Image Docker :

Ports :

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Installation

Utilisation d'Ollama

Utilisation de Transformers

Complétion de code

Modèle Instruct

Pour suivre des instructions de codage :

Fill-in-the-Middle (FIM)

Modèle spécialisé Python

Serveur vLLM

Utilisation de l'API

Explication de code

Correction de bogues

Traduction de code

Interface Gradio

Traitement par lots

Utiliser avec Continue (VSCode)

Configurer l'extension Continue :

Performances

Modèle
GPU
Tokens/sec

CodeLlama-7B

RTX 3090

~90

CodeLlama-7B

RTX 4090

~130

CodeLlama-13B

RTX 4090

~70

CodeLlama-34B

A100

~50

Dépannage

Mauvaise qualité de code

  • Baisser la température (0.1-0.3)

  • Utiliser la variante Instruct

  • Modèle plus grand si possible

Sortie incomplète

  • Augmenter max_new_tokens

  • Vérifier la longueur du contexte

Génération lente

  • Utiliser vLLM

  • Quantifier le modèle

  • Utiliser une variante plus petite

Estimation des coûts

Tarifs typiques du marché CLORE.AI (à partir de 2024) :

GPU
Tarif horaire
Tarif journalier
Session de 4 heures

RTX 3060

~$0.03

~$0.70

~$0.12

RTX 3090

~$0.06

~$1.50

~$0.25

RTX 4090

~$0.10

~$2.30

~$0.40

A100 40GB

~$0.17

~$4.00

~$0.70

A100 80GB

~$0.25

~$6.00

~$1.00

Les prix varient selon le fournisseur et la demande. Vérifiez CLORE.AI Marketplacearrow-up-right pour les tarifs actuels.

Économisez de l'argent :

  • Utilisez Spot market pour les charges de travail flexibles (souvent 30-50 % moins cher)

  • Payer avec CLORE jetons

  • Comparer les prix entre différents fournisseurs

Prochaines étapes

  • Open Interpreter - Exécuter du code

  • vLLM Inference - Mise en production

  • Mistral/Mixtral - Modèles alternatifs

Mis à jour

Ce contenu vous a-t-il été utile ?