Assistant IA LobeChat

Déployez LobeChat sur Clore.ai — une interface de chat IA superbe et riche en fonctionnalités avec prise en charge de plusieurs fournisseurs, base de connaissances et plugins, exécutée sur des serveurs cloud abordables alimentés par GPU.

Aperçu

LobeChatarrow-up-right est un cadre de chat IA moderne et open-source avec plus de 55K étoiles sur GitHub, connu pour son interface soignée et son ensemble de fonctionnalités étendues. Il prend en charge pratiquement tous les principaux fournisseurs de LLM — OpenAI, Anthropic Claude, Google Gemini, Mistral, et des modèles locaux via Ollama — le tout depuis une interface auto-hébergée unique.

Pourquoi exécuter LobeChat sur Clore.ai ?

  • Aucun GPU requis — LobeChat lui-même est une application web légère. Les instances Clore.ai uniquement CPU ou avec GPU minimal sont parfaitement suffisantes pour l’interface.

  • Associer à des LLM locaux — Lancez Ollama ou vLLM sur le même serveur Clore.ai et configurez LobeChat pour l’utiliser afin d’obtenir une inférence entièrement locale et privée.

  • Hébergement abordable — Une instance Clore.ai basique coûte une fraction des fournisseurs VPS traditionnels, et vous pouvez l’arrêter lorsque vous ne l’utilisez pas.

  • Propriété complète des données — Le mode base de données stocke toutes les conversations, fichiers et embeddings dans votre propre instance PostgreSQL sur le serveur.

LobeChat fonctionne en deux modes distincts :

Mode
Description
Idéal pour

Autonome

Conteneur Docker unique, paramètres stockés dans le navigateur

Tests rapides, usage personnel

Base de données

Stack complet (PostgreSQL + MinIO + Auth + App)

Équipes, historique persistant, base de connaissances


Exigences

Spécifications du serveur

Composant
Minimum
Recommandé
Remarques

GPU

Aucun requis

RTX 3090 (si exécution de LLM locaux)

Nécessaire uniquement pour le backend Ollama/vLLM

VRAM

24 Go (RTX 3090)

Pour l’inférence de modèles locaux

CPU

2 vCPU

4+ vCPU

LobeChat lui-même est léger

RAM

2 Go

8 Go

4+ Go si vous utilisez le mode base de données

Stockage

10 Go

50+ Go

Plus si vous stockez des fichiers téléchargés ou des modèles

Référence de tarification Clore.ai

Type de serveur
Coût approximatif
Cas d'utilisation

Instance uniquement CPU

~0,05–0,10 $/h

Uniquement LobeChat autonome

RTX 3090 (24 Go VRAM)

~0,20 $/h

LobeChat + Ollama LLMs locaux

RTX 4090 (24 Go VRAM)

~0,35 $/h

LobeChat + inférence locale plus rapide

A100 80 Go

~1,10 $/h

LobeChat + grands modèles (70B+)

💡 Conseil : Pour une utilisation via API uniquement (connexion à OpenAI, Anthropic, etc.), n’importe quelle petite instance fonctionne. Un serveur GPU n’a de sens que si vous souhaitez également exécuter des LLM locaux. Voir Guide de comparaison GPU pour les détails.

Prérequis

  • Compte Clore.ai avec un serveur déployé

  • Accès SSH à votre serveur

  • Docker et Docker Compose (préinstallés sur les serveurs Clore.ai)

  • Pilotes NVIDIA (préinstallés ; pertinents uniquement si vous utilisez un backend LLM local)

  • Au moins une clé API (OpenAI, Anthropic, etc.) ou une instance Ollama locale


Démarrage rapide

Option A : Mode autonome (recommandé pour commencer)

Le mode autonome exécute LobeChat en tant que conteneur unique. Les paramètres et l’historique des conversations sont stockés dans le stockage local du navigateur — aucune base de données requise.

Étape 1 : Connectez-vous à votre serveur Clore.ai

Étape 2 : Récupérer et exécuter LobeChat

Étape 3 : Vérifiez qu’il fonctionne

Étape 4 : Accédez à l’interface

Ouvrez votre navigateur et rendez-vous sur :

⚠️ Remarque sur la sécurité : Les serveurs Clore.ai sont accessibles publiquement. Envisagez de définir ACCESS_CODE pour protéger par mot de passe votre instance (voir la section Configuration ci-dessous).


Option B : Mode autonome avec plusieurs fournisseurs

Passez plusieurs clés API pour prendre en charge différents fournisseurs simultanément :


Option C : Avec backend Ollama local

Si vous avez Ollama en cours d’exécution sur le même serveur Clore.ai (voir Guide Ollama):

Sur Linux, remplacez host-gateway par l’IP réelle du pont Docker, typiquement 172.17.0.1:


Option D : Mode base de données (Docker Compose)

Le mode base de données permet un historique de conversation persistant, la prise en charge multi-utilisateur, les téléchargements de fichiers vers un stockage compatible S3, et une base de connaissances complète.

Étape 1 : Créer le répertoire du projet

Étape 2 : Créer docker-compose.yml

Étape 3 : Démarrer la stack

Étape 4 : Créer le bucket MinIO


Configuration

Référence des variables d'environnement

Variable
Description
Par défaut

OPENAI_API_KEY

Clé API OpenAI

OPENAI_PROXY_URL

Point de terminaison personnalisé compatible OpenAI

https://api.openai.com/v1

ANTHROPIC_API_KEY

Clé API Anthropic Claude

GOOGLE_API_KEY

Clé API Google Gemini

MISTRAL_API_KEY

Clé API Mistral AI

OLLAMA_PROXY_URL

URL vers une instance Ollama locale

ACCESS_CODE

Mot de passe pour protéger l’interface

DEFAULT_AGENT_CONFIG

Configuration JSON pour le comportement par défaut de l’assistant

FEATURE_FLAGS

Activer/désactiver des fonctionnalités spécifiques

Activation de fonctionnalités spécifiques

Activer le plugin de recherche web :

Activer la synthèse vocale :

Définir un prompt système personnalisé pour l’agent par défaut :

Mise à jour de LobeChat

Pour Docker Compose :


Accélération GPU

LobeChat lui-même ne nécessite un GPU. Cependant, lorsqu’il est associé à un backend accéléré par GPU sur Clore.ai, vous obtenez une inférence LLM locale et privée :

Association avec vLLM (Inférence haute performance)

Voir le - Débit le plus élevé pour la configuration complète. Intégration rapide :

Utilisation des ressources

Backend
VRAM GPU utilisée
Débit approximatif

Ollama (Llama 3.2 3B)

~2 Go

50–80 tokens/sec sur 3090

Ollama (Llama 3.1 8B)

~6 Go

40–60 tokens/sec sur 3090

vLLM (Llama 3.1 8B)

~16 Go

80–150 tokens/sec sur 3090

vLLM (Llama 3.1 70B)

~80 Go

20–40 tokens/sec sur A100 80GB


Conseils et bonnes pratiques

Optimisation des coûts

  • Arrêtez votre serveur lorsqu’il est inactif. Clore.ai facture à l’heure — utilisez le tableau de bord pour mettre en pause les instances que vous n’utilisez pas activement.

  • Mode autonome pour usage personnel. À moins d’avoir besoin du support multi-utilisateur ou d’un historique persistant côté serveur, le mode autonome évite la charge de PostgreSQL et MinIO.

  • Utilisez des fournisseurs d’API pour les grands modèles. Acheminer les requêtes vers Claude ou GPT-4 via des API externes est moins cher que de louer une H100 pour des requêtes occasionnelles.

Sécurité

  • Ne jamais exposer LobeChat sans un ACCESS_CODE sur une IP publique.

  • Envisagez d’utiliser un proxy inverse Nginx avec HTTPS si vous l’exécutez à long terme.

  • Faites pivoter les clés API si vous suspectez une exposition.

Performances

  • Pour le mode base de données avec 10+ utilisateurs concurrents, assurez-vous d’au moins 8 Go de RAM sur l’hôte.

  • MinIO fonctionne mieux avec un stockage sur SSD (instances Clore.ai NVMe).

Persistance entre les sessions Clore.ai

Puisque les serveurs Clore.ai peuvent être terminés :

Exportez régulièrement les conversations depuis Paramètres → Exportation de données dans l’interface.


Dépannage

Le conteneur ne démarre pas

Impossible de se connecter à Ollama depuis LobeChat

Erreurs de connexion à la base de données (mode base de données)

Images/fichiers non téléchargés (mode base de données)

Erreurs de mémoire insuffisante


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?