CodeLlama
Générez, complétez et expliquez du code avec CodeLlama sur Clore.ai
Location sur CLORE.AI
Accédez à votre serveur
Variantes de modèle
Modèle
Taille
VRAM
Idéal pour
Variantes
Déploiement rapide
Accéder à votre service
Installation
Utilisation d'Ollama
Utilisation de Transformers
Complétion de code
Modèle Instruct
Fill-in-the-Middle (FIM)
Modèle spécialisé Python
Serveur vLLM
Utilisation de l'API
Explication de code
Correction de bogues
Traduction de code
Interface Gradio
Traitement par lots
Utiliser avec Continue (VSCode)
Performances
Modèle
GPU
Tokens/sec
Dépannage
Mauvaise qualité de code
Sortie incomplète
Génération lente
Estimation des coûts
GPU
Tarif horaire
Tarif journalier
Session de 4 heures
Prochaines étapes
Mis à jour
Ce contenu vous a-t-il été utile ?