LobeChat KI-Assistent

Setzen Sie LobeChat auf Clore.ai ein — eine beeindruckende, funktionsreiche KI-Chat-Oberfläche mit Multi-Provider-Unterstützung, Wissensdatenbank und Plugins, die auf erschwinglichen GPU-gestützten Cloud-Servern läuft.

Überblick

LobeChatarrow-up-right ist ein modernes Open-Source-AI-Chat-Framework mit über 55K GitHub-Sternen, bekannt für seine ausgereifte Benutzeroberfläche und umfangreiche Funktionspalette. Es unterstützt praktisch jeden großen LLM-Anbieter — OpenAI, Anthropic Claude, Google Gemini, Mistral und lokale Modelle über Ollama — alles über eine einzige, selbst gehostete Oberfläche.

Warum LobeChat auf Clore.ai betreiben?

  • Keine GPU erforderlich — LobeChat selbst ist eine leichte Web-App. Clore.ai-Instanzen ohne GPU oder mit minimaler GPU sind für die Oberfläche völlig ausreichend.

  • Kombination mit lokalen LLMs — Starten Sie Ollama oder vLLM auf demselben Clore.ai-Server und konfigurieren Sie LobeChat darauf für vollständig lokale, private Inferenz.

  • Erschwingliches Hosting — Eine einfache Clore.ai-Instanz kostet einen Bruchteil traditioneller VPS-Anbieter, und Sie können sie abschalten, wenn sie nicht verwendet wird.

  • Volle Datenhoheit — Der Datenbankmodus speichert alle Gespräche, Dateien und Embeddings in Ihrer eigenen PostgreSQL-Instanz auf dem Server.

LobeChat arbeitet in zwei verschiedenen Modi:

Modus
Beschreibung
Am besten geeignet für

Standalone

Ein einzelner Docker-Container, Einstellungen im Browser gespeichert

Schnelles Testen, persönlicher Gebrauch

Datenbank

Vollständiger Stack (PostgreSQL + MinIO + Auth + App)

Teams, persistente Historie, Wissensdatenbank


Anforderungen

Server-Spezifikationen

Komponente
Minimum
Empfohlen
Hinweise

GPU

Keine erforderlich

RTX 3090 (falls lokale LLMs betrieben werden)

Nur nötig für Ollama/vLLM-Backend

VRAM

24 GB (RTX 3090)

Für lokale Modellausführung

CPU

2 vCPU

4+ vCPU

LobeChat selbst ist ressourcenschonend

RAM

2 GB

8 GB

4+ GB, wenn der Datenbankmodus verwendet wird

Speicher

10 GB

50+ GB

Mehr, wenn hochgeladene Dateien oder Modelle gespeichert werden

Clore.ai Preisinformationen

Servertyp
Ungefähre Kosten
Einsatzgebiet

Nur-CPU-Instanz

~0,05–0,10 $/Std.

Nur Standalone LobeChat

RTX 3090 (24 GB VRAM)

~$0.20/Stunde

LobeChat + Ollama lokale LLMs

RTX 4090 (24 GB VRAM)

~$0.35/Stunde

LobeChat + schnellere lokale Inferenz

A100 80 GB

~$1.10/Stunde

LobeChat + große Modelle (70B+)

💡 Tipp: Für API-only Nutzung (Verbindung zu OpenAI, Anthropic usw.) reicht jede kleine Instanz. Ein GPU-Server macht nur Sinn, wenn Sie auch lokale LLMs betreiben möchten. Siehe GPU-Vergleichsanleitung für Details.

Voraussetzungen

  • Clore.ai-Konto mit einem bereitgestellten Server

  • SSH-Zugriff auf Ihren Server

  • Docker und Docker Compose (auf Clore.ai-Servern vorinstalliert)

  • NVIDIA-Treiber (vorinstalliert; nur relevant bei Verwendung eines lokalen LLM-Backends)

  • Mindestens ein API-Schlüssel (OpenAI, Anthropic usw.) oder eine lokale Ollama-Instanz


Schnellstart

Option A: Standalone-Modus (empfohlen zum Einstieg)

Im Standalone-Modus läuft LobeChat als einzelner Container. Einstellungen und Gesprächsverlauf werden im lokalen Speicher des Browsers abgelegt — keine Datenbank erforderlich.

Schritt 1: Verbinden Sie sich mit Ihrem Clore.ai-Server

Schritt 2: LobeChat herunterladen und starten

Schritt 3: Überprüfen, ob es läuft

Schritt 4: Auf die Oberfläche zugreifen

Öffnen Sie Ihren Browser und navigieren Sie zu:

⚠️ Sicherheitshinweis: Clore.ai-Server sind öffentlich zugänglich. Erwägen Sie, ACCESS_CODE zu setzen, um Ihre Instanz mit einem Passwort zu schützen (siehe Konfigurationsabschnitt unten).


Option B: Standalone mit mehreren Anbietern

Geben Sie mehrere API-Schlüssel an, um verschiedene Anbieter gleichzeitig zu unterstützen:


Option C: Mit lokalem Ollama-Backend

Wenn Sie Ollama auf demselben Clore.ai-Server betreiben (siehe Ollama-Anleitung):

Unter Linux ersetzen Sie host-gateway durch die tatsächliche Docker-Bridge-IP, typischerweise 172.17.0.1:


Option D: Datenbankmodus (Docker Compose)

Der Datenbankmodus ermöglicht persistente Gesprächshistorie, Multi-User-Unterstützung, Datei-Uploads zu S3-kompatiblem Speicher und eine vollständige Wissensdatenbank.

Schritt 1: Projektverzeichnis anlegen

Schritt 2: Erstellen Sie docker-compose.yml

Schritt 3: Stack starten

Schritt 4: MinIO-Bucket erstellen


Konfiguration

Referenz der Umgebungsvariablen

Variable
Beschreibung
Standard

OPENAI_API_KEY

OpenAI API-Schlüssel

OPENAI_PROXY_URL

Benutzerdefinierter OpenAI-kompatibler Endpunkt

https://api.openai.com/v1

ANTHROPIC_API_KEY

Anthropic Claude API-Schlüssel

GOOGLE_API_KEY

Google Gemini API-Schlüssel

MISTRAL_API_KEY

Mistral AI API-Schlüssel

OLLAMA_PROXY_URL

URL zur lokalen Ollama-Instanz

ACCESS_CODE

Passwort zum Schutz der Oberfläche

DEFAULT_AGENT_CONFIG

JSON-Konfiguration für das Standardverhalten des Assistenten

FEATURE_FLAGS

Bestimmte Funktionen aktivieren/deaktivieren

Bestimmte Funktionen aktivieren

Web-Such-Plugin aktivieren:

Text-zu-Sprache aktivieren:

Benutzerdefiniertes Systemprompt für den Standardagenten setzen:

LobeChat aktualisieren

Für Docker Compose:


GPU-Beschleunigung

LobeChat selbst unterstützen benötigt keine GPU. Wenn es jedoch mit einem GPU-beschleunigten Backend auf Clore.ai kombiniert wird, erhalten Sie lokale, private LLM-Inferenz:

Kombination mit vLLM (Hochleistungsinferenz)

Siehe die vLLM-Leitfaden für die vollständige Einrichtung. Schnelle Integration:

Ressourcenverbrauch

Backend
Genutzter GPU-VRAM
Ungefähre Durchsatzrate

Ollama (Llama 3.2 3B)

~2 GB

50–80 Tokens/Sek. auf 3090

Ollama (Llama 3.1 8B)

~6 GB

40–60 Tokens/Sek. auf 3090

vLLM (Llama 3.1 8B)

~16 GB

80–150 Tokens/Sek. auf 3090

vLLM (Llama 3.1 70B)

~80 GB

20–40 Tokens/Sek. auf A100 80GB


Tipps & bewährte Methoden

Kostenoptimierung

  • Schalten Sie Ihren Server aus, wenn er nicht genutzt wird. Clore.ai berechnet stundenweise — nutzen Sie das Dashboard, um Instanzen zu pausieren, die Sie nicht aktiv verwenden.

  • Standalone-Modus für den persönlichen Gebrauch. Sofern Sie keine Multi-User-Unterstützung oder persistente serverseitige Historie benötigen, vermeidet der Standalone-Modus den Overhead von PostgreSQL und MinIO.

  • Verwenden Sie API-Anbieter für große Modelle. Claude- oder GPT-4-Anfragen über externe APIs zu leiten ist günstiger, als gelegentlich ein H100 anzumieten.

Sicherheit

  • Setzen Sie LobeChat niemals auf einer öffentlichen IP ohne einen ACCESS_CODE .

  • Erwägen Sie die Verwendung eines Nginx-Reverse-Proxys mit HTTPS bei langfristigem Betrieb.

  • Rotieren Sie API-Schlüssel, wenn Sie eine Kompromittierung vermuten.

Leistung

  • Für den Datenbankmodus mit 10+ gleichzeitigen Benutzern stellen Sie mindestens 8 GB RAM auf dem Host sicher.

  • MinIO arbeitet besser mit SSD-gestütztem Speicher (Clore.ai NVMe-Instanzen).

Persistenz zwischen Clore.ai-Sitzungen

Da Clore.ai-Server beendet werden können:

Exportieren Sie regelmäßig Gespräche über Einstellungen → Datenexport in der UI.


Fehlerbehebung

Container startet nicht

Keine Verbindung von LobeChat zu Ollama möglich

Datenbankverbindungsfehler (Datenbankmodus)

Bilder/Dateien werden nicht hochgeladen (Datenbankmodus)

Speicherplatzfehler


Weiterführende Lektüre

Zuletzt aktualisiert

War das hilfreich?