Assistant IA LobeChat

Déployez LobeChat sur Clore.ai — une interface de chat IA superbe et riche en fonctionnalités avec support multi-fournisseurs, base de connaissances et plugins fonctionnant sur des serveurs cloud soutenus par GPU abordables.

Aperçu

LobeChatarrow-up-right est un cadre de chat IA moderne et open-source avec plus de 55K étoiles sur GitHub, connu pour son interface soignée et son ensemble de fonctionnalités étendues. Il prend en charge pratiquement tous les principaux fournisseurs de LLM — OpenAI, Anthropic Claude, Google Gemini, Mistral, et des modèles locaux via Ollama — le tout depuis une interface auto-hébergée unique.

Pourquoi exécuter LobeChat sur Clore.ai ?

  • Aucun GPU requis — LobeChat lui-même est une application web légère. Les instances Clore.ai uniquement CPU ou avec GPU minimal sont parfaitement suffisantes pour l’interface.

  • Associer à des LLM locaux — Lancez Ollama ou vLLM sur le même serveur Clore.ai et configurez LobeChat pour l’utiliser afin d’obtenir une inférence entièrement locale et privée.

  • Hébergement abordable — Une instance Clore.ai basique coûte une fraction des fournisseurs VPS traditionnels, et vous pouvez l’arrêter lorsque vous ne l’utilisez pas.

  • Propriété complète des données — Le mode base de données stocke toutes les conversations, fichiers et embeddings dans votre propre instance PostgreSQL sur le serveur.

LobeChat fonctionne en deux modes distincts :

Mode
Description
Idéal pour

Autonome

Conteneur Docker unique, paramètres stockés dans le navigateur

Tests rapides, usage personnel

Base de données

Stack complet (PostgreSQL + MinIO + Auth + App)

Équipes, historique persistant, base de connaissances


Exigences

Spécifications du serveur

Composant
Minimum
Recommandé
Remarques

GPU

Aucun requis

RTX 3090 (si exécution de LLM locaux)

Nécessaire uniquement pour le backend Ollama/vLLM

VRAM

24 Go (RTX 3090)

Pour l’inférence de modèles locaux

CPU

2 vCPU

4+ vCPU

LobeChat lui-même est léger

RAM

2 Go

8 Go

4+ Go si vous utilisez le mode base de données

Stockage

10 Go

50+ Go

Plus si vous stockez des fichiers téléchargés ou des modèles

Référence de tarification Clore.ai

Type de serveur
Coût approximatif
Cas d'utilisation

Instance uniquement CPU

~0,05–0,10 $/h

Uniquement LobeChat autonome

RTX 3090 (24 Go VRAM)

~0,20 $/h

LobeChat + Ollama LLMs locaux

RTX 4090 (24 Go VRAM)

~0,35 $/h

LobeChat + inférence locale plus rapide

A100 80 Go

~1,10 $/h

LobeChat + grands modèles (70B+)

💡 Conseil : Pour une utilisation via API uniquement (connexion à OpenAI, Anthropic, etc.), n’importe quelle petite instance fonctionne. Un serveur GPU n’a de sens que si vous souhaitez également exécuter des LLM locaux. Voir Guide de comparaison GPU pour les détails.

Prérequis

  • Compte Clore.ai avec un serveur déployé

  • Accès SSH à votre serveur

  • Docker et Docker Compose (préinstallés sur les serveurs Clore.ai)

  • Pilotes NVIDIA (préinstallés ; pertinents uniquement si vous utilisez un backend LLM local)

  • Au moins une clé API (OpenAI, Anthropic, etc.) ou une instance Ollama locale


Démarrage rapide

Option A : Mode autonome (recommandé pour commencer)

Le mode autonome exécute LobeChat en tant que conteneur unique. Les paramètres et l’historique des conversations sont stockés dans le stockage local du navigateur — aucune base de données requise.

Étape 1 : Connectez-vous à votre serveur Clore.ai

Étape 2 : Récupérer et exécuter LobeChat

Étape 3 : Vérifiez qu’il fonctionne

Étape 4 : Accédez à l’interface

Ouvrez votre navigateur et rendez-vous sur :

⚠️ Remarque sur la sécurité : Les serveurs Clore.ai sont accessibles publiquement. Envisagez de définir ACCESS_CODE pour protéger par mot de passe votre instance (voir la section Configuration ci-dessous).


Option B : Mode autonome avec plusieurs fournisseurs

Passez plusieurs clés API pour prendre en charge différents fournisseurs simultanément :


Option C : Avec backend Ollama local

Si vous avez Ollama en cours d’exécution sur le même serveur Clore.ai (voir Guide Ollama):

Sur Linux, remplacez host-gateway par l’IP réelle du pont Docker, typiquement 172.17.0.1:


Option D : Mode base de données (Docker Compose)

Le mode base de données permet un historique de conversation persistant, la prise en charge multi-utilisateur, les téléchargements de fichiers vers un stockage compatible S3, et une base de connaissances complète.

Étape 1 : Créer le répertoire du projet

Étape 2 : Créer docker-compose.yml

Étape 3 : Démarrer la stack

Étape 4 : Créer le bucket MinIO


Configuration

Référence des variables d'environnement

Variable
Description
Par défaut

OPENAI_API_KEY

Clé API OpenAI

OPENAI_PROXY_URL

Point de terminaison personnalisé compatible OpenAI

https://api.openai.com/v1

ANTHROPIC_API_KEY

Clé API Anthropic Claude

GOOGLE_API_KEY

Clé API Google Gemini

MISTRAL_API_KEY

Clé API Mistral AI

OLLAMA_PROXY_URL

URL vers une instance Ollama locale

ACCESS_CODE

Mot de passe pour protéger l’interface

DEFAULT_AGENT_CONFIG

Configuration JSON pour le comportement par défaut de l’assistant

FEATURE_FLAGS

Activer/désactiver des fonctionnalités spécifiques

Activation de fonctionnalités spécifiques

Activer le plugin de recherche web :

Activer la synthèse vocale :

Définir un prompt système personnalisé pour l’agent par défaut :

Mise à jour de LobeChat

Pour Docker Compose :


Accélération GPU

LobeChat lui-même ne nécessite un GPU. Cependant, lorsqu’il est associé à un backend accéléré par GPU sur Clore.ai, vous obtenez une inférence LLM locale et privée :

Association avec vLLM (Inférence haute performance)

Voir le - Débit le plus élevé pour la configuration complète. Intégration rapide :

Utilisation des ressources

Backend
VRAM GPU utilisée
Débit approximatif

Ollama (Llama 3.2 3B)

~2 Go

50–80 tokens/sec sur 3090

Ollama (Llama 3.1 8B)

~6 Go

40–60 tokens/sec sur 3090

vLLM (Llama 3.1 8B)

~16 Go

80–150 tokens/sec sur 3090

vLLM (Llama 3.1 70B)

~80 Go

20–40 tokens/sec sur A100 80GB


Conseils et bonnes pratiques

Optimisation des coûts

  • Arrêtez votre serveur lorsqu’il est inactif. Clore.ai facture à l’heure — utilisez le tableau de bord pour mettre en pause les instances que vous n’utilisez pas activement.

  • Mode autonome pour usage personnel. À moins d’avoir besoin du support multi-utilisateur ou d’un historique persistant côté serveur, le mode autonome évite la charge de PostgreSQL et MinIO.

  • Utilisez des fournisseurs d’API pour les grands modèles. Acheminer les requêtes vers Claude ou GPT-4 via des API externes est moins cher que de louer une H100 pour des requêtes occasionnelles.

Sécurité

  • Ne jamais exposer LobeChat sans un ACCESS_CODE sur une IP publique.

  • Envisagez d’utiliser un proxy inverse Nginx avec HTTPS si vous l’exécutez à long terme.

  • Faites pivoter les clés API si vous suspectez une exposition.

Performances

  • Pour le mode base de données avec 10+ utilisateurs concurrents, assurez-vous d’au moins 8 Go de RAM sur l’hôte.

  • MinIO fonctionne mieux avec un stockage sur SSD (instances Clore.ai NVMe).

Persistance entre les sessions Clore.ai

Puisque les serveurs Clore.ai peuvent être terminés :

Exportez régulièrement les conversations depuis Paramètres → Exportation de données dans l’interface.


Dépannage

Le conteneur ne démarre pas

Impossible de se connecter à Ollama depuis LobeChat

Erreurs de connexion à la base de données (mode base de données)

Images/fichiers non téléchargés (mode base de données)

Erreurs de mémoire insuffisante


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?