Jan.ai Offline-Assistent
Setzen Sie den Jan.ai-Server auf Clore.ai ein — ein vollständig offline arbeitender, OpenAI-kompatibler LLM-Server mit Modell-Hub, Gesprächsverwaltung und GPU-beschleunigter Inferenz, angetrieben vom Cortex-Engine.
Überblick
Anforderungen
Hardware-Anforderungen
Tier
GPU
VRAM
RAM
Speicher
Clore.ai-Preis
Referenz für Modell-VRAM
Modell
Benötigter VRAM
Empfohlene GPU
Software-Voraussetzungen
Schnellstart
Schritt 1 — Mieten Sie einen GPU-Server auf Clore.ai
Schritt 2 — Mit Ihrem Server verbinden
Schritt 3 — Docker Compose installieren (falls nicht vorhanden)
Schritt 4 — Jan Server mit Docker Compose bereitstellen
Schritt 5 — Überprüfen, ob der Server läuft
Schritt 6 — Ihr erstes Modell ziehen
Schritt 7 — Modell starten & chatten
Konfiguration
Umgebungsvariablen
Variable
Standard
Beschreibung
Multi-GPU-Konfiguration
Benutzerdefinierte Modellkonfiguration
Die API mit einem Token absichern
GPU-Beschleunigung
CUDA-Beschleunigung verifizieren
Inference-Backends wechseln
Anpassung von Context Window und Batch-Größe
Parameter
Beschreibung
Empfehlung
Tipps & bewährte Methoden
🎯 Modellauswahl für Clore.ai-Budgets
💾 Persistenter Modellspeicher
🔗 Jan Server als OpenAI-Drop-in verwenden
📊 Überwachung der Ressourcennutzung
Fehlerbehebung
Container startet nicht — GPU nicht gefunden
Modell-Download bleibt hängen oder schlägt fehl
Kein VRAM mehr (CUDA out of memory)
Keine Verbindung zur API von außerhalb des Containers möglich
Langsame Inferenz (CPU-Fallback)
Weiterführende Lektüre
Zuletzt aktualisiert
War das hilfreich?