LibreChat Multi-Provider

Setzen Sie LibreChat auf Clore.ai ein — eine leistungsstarke, selbst gehostete ChatGPT-Alternative mit Multi-Provider-KI-Unterstützung, Gesprächsverzweigungen und Plugin-Ökosystem auf erschwinglicher GPU-Cloud-Infrastruktur.

Überblick

LibreChatarrow-up-right ist eine erweiterte, quelloffene ChatGPT-ähnliche Oberfläche mit über 22.000 GitHub-Sternen. Sie stellt das ChatGPT-Erlebnis getreu neu dar und fügt Funktionen hinzu, die dem Original fehlen — wechselnde Anbieter innerhalb derselben Konversation, Verzweigungen/Forks von Konversationen, ein umfangreiches Plugin-System, Datei-Uploads mit Vision und eine vollständige Code-Interpreter-Sandbox.

Warum LibreChat auf Clore.ai betreiben?

  • Echter Multi-Provider in einer UI — Wechseln Sie während einer Sitzung zwischen GPT-4, Claude 3.5, Gemini Pro, Mistral und lokalen Ollama-Modellen.

  • Keine GPU für die App erforderlich — LibreChat ist eine Node.js-Anwendung; es wird nur Rechenleistung für Inferenz benötigt, wenn Sie ein lokales LLM-Backend anschließen.

  • Kosteneffizientes Self-Hosting — Die Preise von Clore.ai beginnen bei Bruchteilen eines Cents pro Minute, ideal zum Betreiben eines persönlichen KI-Hubs.

  • Persistente Konversationen — MongoDB speichert Ihren gesamten Chatverlauf serverseitig, im Gegensatz zu browserlokalen Lösungen.

  • Teamfreundlich — Multi-Benutzer-Unterstützung mit individueller Verwaltung von API-Schlüsseln.

Hauptmerkmale

Funktion
Beschreibung

Multi-Provider

OpenAI, Anthropic, Google, Azure, Mistral, Ollama, OpenRouter

Konversationsverzweigung

Forken und alternative Antworten erkunden

Plugins

Bing-Suche, Zapier, WolframAlpha, benutzerdefinierte Tools

Datei-Uploads

Bilder, PDFs, Dokumente mit Vision-Analyse

Code-Interpreter

Python in einer isolierten Sandbox ausführen

Artefakte

HTML-, React- und Markdown-Ausgaben rendern

Voreinstellungen

Benutzerdefinierte Modellkonfigurationen speichern und teilen


Anforderungen

Server-Spezifikationen

Komponente
Minimum
Empfohlen
Hinweise

GPU

Keine erforderlich

RTX 3090 (falls Ollama hinzugefügt wird)

Nur für lokale LLM-Inferenz

VRAM

24 GB

Für lokale Modelle über Ollama

CPU

2 vCPU

4 vCPU

Node.js + MongoDB

RAM

4 GB

8 GB

MongoDB profitiert von mehr RAM

Speicher

20 GB

50+ GB

Datei-Uploads, Modell-Cache wenn lokal

Clore.ai Preisinformationen

Servertyp
Ungefähre Kosten
Einsatzgebiet

CPU-fokussiert (4 vCPU, 8 GB RAM)

~0,05–0,10 $/Std.

LibreChat + externe API-Anbieter

RTX 3090 (24 GB VRAM)

~$0.20/Stunde

LibreChat + Ollama lokale Inferenz

RTX 4090 (24 GB VRAM)

~$0.35/Stunde

LibreChat + schnellere Ollama/vLLM

A100 80 GB

~$1.10/Stunde

LibreChat + große 70B+-Modelle

💡 Kosten-Tipp: Wenn Sie LibreChat nur verwenden, um API-Aufrufe an OpenAI/Anthropic/Google zu routen, zahlen Sie nur für die Clore.ai-Server-Rechenzeit (günstig), nicht für die Inferenz-Hardware. Budgetieren Sie etwa ~$0.05–0.15/Stunde für einen zuverlässigen LibreChat-Host.

Voraussetzungen

  • Clore.ai-Server mit SSH-Zugang

  • Docker + Docker Compose (vorinstalliert auf Clore.ai)

  • Git (vorinstalliert auf Clore.ai)

  • Mindestens ein LLM-API-Schlüssel oder ein lokales Ollama/vLLM-Backend


Schnellstart

Methode 1: Docker Compose (Offiziell — Empfohlen)

Die offizielle Bereitstellung von LibreChat verwendet Docker Compose mit MongoDB und MeiliSearch für volle Funktionalität.

Schritt 1: Verbinden Sie sich mit Ihrem Clore.ai-Server

Schritt 2: Repository klonen

Schritt 3: Umgebung konfigurieren

Mindestens festlegen:

Geheimnisse schnell generieren:

Schritt 4: Stack starten

Dies startet:

  • LibreChat — Hauptanwendung auf Port 3080

  • MongoDB — Konversations- und Benutzerspeicherung

  • MeiliSearch — schnelle Konversationssuche

Schritt 5: Überprüfen und zugreifen

Im Browser öffnen:

Registrieren Sie ein neues Konto auf der Login-Seite.


Methode 2: Vorgefertigtes Docker-Image (Am schnellsten)

Wenn Sie das Bauen aus dem Quellcode überspringen möchten:


Methode 3: Einzelcontainer Schnelltest

Für einen schnellen Proof-of-Concept ohne MongoDB (eingeschränkte Funktionalität):

⚠️ Diese Methode erfordert eine separate MongoDB-Instanz. Verwenden Sie Methode 1 für eine vollständige Installation.


Konfiguration

AI-Anbieter hinzufügen

Bearbeiten librechat.yaml (erstelle sie im Projektstamm) für erweiterte Anbieter-Konfiguration:

Mounten Sie diese Datei in Ihrem docker-compose.yml:

Referenz der Umgebungsvariablen

Variable
Beschreibung
Beispiel

MONGO_URI

MongoDB-Verbindungsstring

mongodb://mongodb:27017/LibreChat

JWT_SECRET

JWT-Signatur-Secret (64+ Zeichen)

Zufälliger Hex-String

OPENAI_API_KEY

OpenAI-Schlüssel

sk-...

ANTHROPIC_API_KEY

Anthropic-Schlüssel

sk-ant-...

GOOGLE_KEY

Google Gemini-Schlüssel

KI...

ALLOW_REGISTRATION

Öffentliche Registrierung aktivieren

true / false

ALLOW_EMAIL_LOGIN

E-Mail/Passwort-Login aktivieren

true

DEBUG_LOGGING

Ausführliche Protokollierung

true

SEARCH

MeiliSearch aktivieren

true

MEILI_MASTER_KEY

MeiliSearch API-Schlüssel

Zufälliger String

Registrierung einschränken

Für private Nutzung deaktivieren Sie die öffentliche Registrierung, nachdem Sie Ihr Konto erstellt haben:

Starten Sie dann neu: docker compose restart LibreChat

Code Interpreter aktivieren

Der Code-Interpreter führt Python in einem isolierten Docker-Container aus. Stellen Sie sicher, dass auf den Docker-Socket zugegriffen werden kann.

Datei-Upload-Konfiguration


GPU-Beschleunigung

LibreChat verwendet unterstützen nicht direkt GPU — es ist eine Routing-Schicht. GPU-Beschleunigung gilt für jedes lokale Inferenz-Backend, das Sie anschließen.

Verbindung zu Ollama (gleicher Server)

Wenn Ollama auf demselben Clore.ai-Server läuft (siehe Ollama-Anleitung):

Verbindung zu vLLM (Hohe Durchsatzleistung)

Für hochkonkurrierende Deployments (siehe vLLM-Leitfaden):

In librechat.yaml:

GPU-Größen für lokale Modelle

Modellgröße
Min. VRAM
Empfohlene Clore-GPU
Ungefähre Kosten

7–8B (Q4)

6 GB

RTX 3090

~$0.20/Stunde

13B (Q4)

10 GB

RTX 3090

~$0.20/Stunde

34B (Q4)

24 GB

RTX 4090

~$0.35/Stunde

70B (Q4)

48 GB

2× RTX 3090

~$0.40/Stunde

70B (FP16)

80 GB

A100 80GB

~$1.10/Stunde


Tipps & bewährte Methoden

Kostenmanagement auf Clore.ai

Backup-Strategie

Wiederherstellung aus Backup

LibreChat sichern

  • Setzen Sie immer starke, einzigartige Werte für JWT_SECRET und CREDS_KEY

  • Deaktivieren Sie die Registrierung nach der Erstellung des ersten Benutzers: ALLOW_REGISTRATION=false

  • Verwenden Sie einen Reverse-Proxy (nginx/Caddy) mit HTTPS für die Produktion

  • Aktualisieren Sie regelmäßig das Docker-Image: docker compose pull && docker compose up -d

Nginx Reverse Proxy (Optional)


Fehlerbehebung

Port 3080 nicht erreichbar

MongoDB-Verbindung verweigert

JWT / Authentifizierungsfehler

Ollama-Modelle werden nicht angezeigt

Festplattenspeicher voll

Auf die neueste Version aktualisieren


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?