Assistant hors ligne Jan.ai
Déployez Jan.ai Server sur Clore.ai — un serveur LLM entièrement hors ligne et compatible OpenAI avec hub de modèles, gestion des conversations et inférence accélérée par GPU propulsée par le moteur Cortex.
Aperçu
Exigences
Exigences matérielles
Niveau
GPU
VRAM
RAM
Stockage
Prix Clore.ai
Référence VRAM des modèles
Modèle
VRAM requise
GPU recommandé
Prérequis logiciels
Démarrage rapide
Étape 1 — Louer un serveur GPU sur Clore.ai
Étape 2 — Connectez-vous à votre serveur
Étape 3 — Installez Docker Compose (si absent)
Étape 4 — Déployer Jan Server avec Docker Compose
Étape 5 — Vérifier que le serveur fonctionne
Étape 6 — Récupérer votre premier modèle
Étape 7 — Démarrer le modèle et chatter
Configuration
Variables d'environnement
Variable
Par défaut
Description
Configuration multi-GPU
Configuration personnalisée du modèle
Sécurisation de l'API avec un token
Accélération GPU
Vérification de l'accélération CUDA
Changement de backend d'inférence
Ajustement de la fenêtre de contexte et de la taille de lot
Paramètre
Description
Recommandation
Conseils et bonnes pratiques
🎯 Sélection de modèle en fonction des budgets Clore.ai
💾 Stockage persistant des modèles
🔗 Utiliser Jan Server comme plug-in OpenAI
📊 Surveillance de l'utilisation des ressources
Dépannage
Le conteneur ne démarre pas — GPU introuvable
Téléchargement du modèle bloqué ou échoue
Plus de VRAM (CUDA out of memory)
Impossible de se connecter à l'API depuis l'extérieur du conteneur
Inférence lente (repli sur CPU)
Lectures complémentaires
Mis à jour
Ce contenu vous a-t-il été utile ?