Continue.dev pour le codage IA
Alimentez Continue.dev avec les GPU Clore.ai — exécutez CodeLlama 34B, DeepSeek Coder et Qwen2.5-Coder localement sur des locations GPU bon marché pour une assistance de codage IA privée.
Aperçu
Propriété
Détails
Modèles recommandés pour le codage
Modèle
VRAM
Atout
Remarques
Exigences
Exigences serveur Clore.ai
Niveau
GPU
VRAM
RAM
Disque
Prix
Modèles
Exigences locales (votre machine)
Démarrage rapide
Partie 1 : Configurer le backend Clore.ai
Option A — Backend Ollama (recommandé pour la plupart des utilisateurs)
Option B — Backend vLLM (haut débit / compatible OpenAI)
Option C — Backend TabbyML (spécialiste FIM Autocomplete)
Partie 2 : Installer l'extension Continue.dev
Partie 3 : Configurer Continue.dev pour utiliser Clore.ai
Configuration
Configuration du tunnel SSH (accès distant sécurisé)
Tunnel persistant avec autossh
Charger plusieurs modèles pour différentes tâches
Indexation de la base de code (RAG pour votre repo)
Accélération GPU
Surveiller les performances d'inférence
Performance attendue par GPU
GPU
Modèle
Contexte
Tokens/sec (approx.)
Optimiser Ollama pour de meilleures performances
Conseils et bonnes pratiques
Utiliser différents modèles pour différentes tâches
Comparaison des coûts
Solution
Coût mensuel (utilisation 8h/jour)
Confidentialité
Qualité du modèle
Arrêter quand vous ne codez pas
Utiliser les commandes personnalisées Continue.dev
Dépannage
Problème
Cause probable
Solution
Commandes de débogage
Validation de la configuration Continue.dev
Lectures complémentaires
Mis à jour
Ce contenu vous a-t-il été utile ?