LibreChat Multi-fournisseur

Déployez LibreChat sur Clore.ai — une alternative ChatGPT puissante et auto-hébergée avec support IA multi-fournisseurs, branchement de conversation et écosystème de plugins sur une infrastructure cloud GPU abordable.

Aperçu

LibreChatarrow-up-right est une interface améliorée et open-source de type ChatGPT avec plus de 22 000 étoiles sur GitHub. Elle réimagine fidèlement l'expérience ChatGPT tout en ajoutant des fonctionnalités que l'original n'a pas — basculement multi-fournisseurs au sein de la même conversation, branchement/fork de conversation, un riche système de plugins, téléversements de fichiers avec vision et un bac à sable complet pour interpréter du code.

Pourquoi exécuter LibreChat sur Clore.ai ?

  • Véritable multi-fournisseur dans une seule interface — Basculez entre GPT-4, Claude 3.5, Gemini Pro, Mistral et des modèles Ollama locaux en cours de session.

  • Aucun GPU nécessaire pour l'application — LibreChat est une application Node.js ; elle n'a besoin de calcul pour l'inférence que si vous raccordez un backend LLM local.

  • Auto-hébergement économique — Les tarifs Clore.ai commencent à des fractions de centime par minute, idéal pour exécuter un hub IA personnel.

  • Conversations persistantes — MongoDB stocke l'intégralité de votre historique de chat côté serveur, contrairement aux solutions stockées localement dans le navigateur.

  • Convivial pour les équipes — Prise en charge multi-utilisateurs avec gestion individuelle des clés API.

Principales caractéristiques

Fonction
Description

Multi-fournisseur

OpenAI, Anthropic, Google, Azure, Mistral, Ollama, OpenRouter

Branchement de conversation

Forkez et explorez des réponses alternatives

Plugins

Recherche Bing, Zapier, WolframAlpha, outils personnalisés

Téléversement de fichiers

Images, PDF, documents avec analyse visuelle

Interpréteur de code

Exécutez Python dans un bac à sable isolé

Artefacts

Rendez des sorties HTML, React et Markdown

Préréglages

Enregistrez et partagez des configurations de modèle personnalisées


Exigences

Spécifications du serveur

Composant
Minimum
Recommandé
Remarques

GPU

Aucun requis

RTX 3090 (si vous ajoutez Ollama)

Uniquement pour l'inférence de LLM local

VRAM

24 Go

Pour les modèles locaux via Ollama

CPU

2 vCPU

4 vCPU

Node.js + MongoDB

RAM

4 Go

8 Go

MongoDB bénéficie de plus de RAM

Stockage

20 Go

50+ Go

Téléversements de fichiers, cache de modèles si local

Référence de tarification Clore.ai

Type de serveur
Coût approximatif
Cas d'utilisation

Axé sur le CPU (4 vCPU, 8 Go de RAM)

~0,05–0,10 $/h

LibreChat + fournisseurs d'API externes

RTX 3090 (24 Go VRAM)

~0,20 $/h

LibreChat + inférence locale Ollama

RTX 4090 (24 Go VRAM)

~0,35 $/h

LibreChat + Ollama/vLLM plus rapides

A100 80 Go

~1,10 $/h

LibreChat + grands modèles 70B+

💡 Conseil sur les coûts : Si vous utilisez LibreChat uniquement pour router des appels API vers OpenAI/Anthropic/Google, vous ne payez que le calcul serveur Clore.ai (bon marché), pas le matériel d'inférence. Prévoyez environ 0,05–0,15 $/h pour un hôte LibreChat fiable.

Prérequis

  • Serveur Clore.ai avec accès SSH

  • Docker + Docker Compose (pré-installés sur Clore.ai)

  • Git (pré-installé sur Clore.ai)

  • Au moins une clé API LLM ou un backend Ollama/vLLM local


Démarrage rapide

Méthode 1 : Docker Compose (Officiel — Recommandé)

Le déploiement officiel de LibreChat utilise Docker Compose avec MongoDB et MeiliSearch pour une fonctionnalité complète.

Étape 1 : Connectez-vous à votre serveur Clore.ai

Étape 2 : Cloner le dépôt

Étape 3 : Configurer l'environnement

Définir au minimum :

Générez rapidement des secrets :

Étape 4 : Démarrer la stack

Ceci démarre :

  • LibreChat — application principale sur le port 3080

  • MongoDB — stockage des conversations et des utilisateurs

  • MeiliSearch — recherche rapide de conversations

Étape 5 : Vérifier et accéder

Ouvrez dans le navigateur :

Enregistrez un nouveau compte sur la page de connexion.


Méthode 2 : Image Docker pré-construite (Plus rapide)

Si vous voulez éviter de construire à partir des sources :


Méthode 3 : Test rapide en conteneur unique

Pour une preuve de concept rapide sans MongoDB (fonctionnalité limitée) :

⚠️ Cette méthode nécessite une instance MongoDB séparée. Utilisez la Méthode 1 pour une configuration complète.


Configuration

Ajouter des fournisseurs IA

Éditer librechat.yaml (créez-le à la racine du projet) pour une configuration avancée des fournisseurs :

Montez ce fichier dans votre docker-compose.yml:

Référence des variables d'environnement

Variable
Description
Exemple

MONGO_URI

Chaîne de connexion MongoDB

mongodb://mongodb:27017/LibreChat

JWT_SECRET

Secret de signature JWT (64+ caractères)

Chaîne hexadécimale aléatoire

OPENAI_API_KEY

Clé OpenAI

sk-...

ANTHROPIC_API_KEY

Clé Anthropic

sk-ant-...

GOOGLE_KEY

Clé Google Gemini

IA...

ALLOW_REGISTRATION

Activer l'inscription publique

true / false

ALLOW_EMAIL_LOGIN

Activer la connexion par e-mail/mot de passe

true

DEBUG_LOGGING

Logs verbeux

true

SEARCH

Activer MeiliSearch

true

MEILI_MASTER_KEY

Clé API MeiliSearch

Chaîne aléatoire

Restreindre l'inscription

Pour un usage privé, désactivez l'inscription publique après avoir créé votre compte :

Puis redémarrez : docker compose restart LibreChat

Activation de l'interpréteur de code

L'interpréteur de code exécute Python dans un conteneur Docker isolé. Assurez-vous que le socket Docker est accessible.

Configuration des téléversements de fichiers


Accélération GPU

LibreChat n'utilise ne pas le GPU directement — c'est une couche de routage. L'accélération GPU s'applique à tout backend d'inférence local que vous y connectez.

Connexion à Ollama (même serveur)

Si vous exécutez Ollama sur le même serveur Clore.ai (voir Guide Ollama):

Connexion à vLLM (haut débit)

Pour des déploiements à haute concurrence (voir - Débit le plus élevé):

Dans librechat.yaml:

Dimensionnement GPU pour modèles locaux

Taille du modèle
VRAM min
GPU Clore recommandé
Coût approximatif

7–8B (Q4)

6 Go

RTX 3090

~0,20 $/h

13B (Q4)

10 Go

RTX 3090

~0,20 $/h

34B (Q4)

24 Go

RTX 4090

~0,35 $/h

70B (Q4)

48 Go

2× RTX 3090

~0,40 $/h

70B (FP16)

80 Go

A100 80GB

~1,10 $/h


Conseils et bonnes pratiques

Gestion des coûts sur Clore.ai

Stratégie de sauvegarde

Restauration depuis une sauvegarde

Sécurisation de LibreChat

  • Définissez toujours des valeurs fortes et uniques pour JWT_SECRET et CREDS_KEY

  • Désactiver l'inscription après la création initiale d'un utilisateur : ALLOW_REGISTRATION=false

  • Utilisez un proxy inverse (nginx/Caddy) avec HTTPS pour la production

  • Mettez régulièrement à jour l'image Docker : docker compose pull && docker compose up -d

Proxy inverse Nginx (optionnel)


Dépannage

Le port 3080 n'est pas accessible

Connexion MongoDB refusée

Erreurs JWT / Authentification

Les modèles Ollama n'apparaissent pas

Espace disque insuffisant

Mettre à jour vers la dernière version


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?