Continue.dev Codage IA
Alimentez Continue.dev avec les GPU Clore.ai — exécutez CodeLlama 34B, DeepSeek Coder et Qwen2.5-Coder localement sur des locations GPU peu coûteuses pour une assistance IA privée au codage.
Aperçu
Propriété
Détails
Modèles recommandés pour le codage
Modèle
VRAM
Points forts
Remarques
Exigences
Exigences du serveur Clore.ai
Niveau
GPU
VRAM
RAM
Disque
Prix
Modèles
Exigences locales (votre machine)
Démarrage rapide
Partie 1 : Configurer le backend Clore.ai
Option A — Backend Ollama (Recommandé pour la plupart des utilisateurs)
Option B — Backend vLLM (Haut débit / Compatible OpenAI)
Option C — Backend TabbyML (Spécialiste FIM Autocomplete)
Partie 2 : Installer l'extension Continue.dev
Partie 3 : Configurez Continue.dev pour utiliser Clore.ai
Configuration
Configuration du tunnel SSH (accès distant sécurisé)
Tunnel persistant avec autossh
Charger plusieurs modèles pour différentes tâches
Indexation du code (RAG pour votre repo)
Accélération GPU
Surveiller les performances d'inférence
Performances attendues par GPU
GPU
Modèle
Contexte
Tokens/sec (approx.)
Ajuster Ollama pour de meilleures performances
Conseils et bonnes pratiques
Utiliser différents modèles pour différentes tâches
Comparaison des coûts
Solution
Coût mensuel (utilisation 8h/jour)
Confidentialité
Qualité du modèle
Arrêter quand vous ne codez pas
Utilisez les commandes personnalisées de Continue.dev
Dépannage
Problème
Cause probable
Solution
Commandes de débogage
Validation de la configuration Continue.dev
Lectures complémentaires
Mis à jour
Ce contenu vous a-t-il été utile ?