WebUI öffnen

ChatGPT-ähnliche Oberfläche zum Ausführen von LLMs auf Clore.ai GPUs

Schöne ChatGPT-ähnliche Oberfläche zum Ausführen von LLMs auf CLORE.AI-GPUs.

circle-check

Warum Open WebUI?

  • ChatGPT-ähnliche Benutzeroberfläche - Vertraute, ausgefeilte Oberfläche

  • Multi-Modell - Einfaches Wechseln zwischen Modellen

  • RAG integriert - Dokumente zum Kontext hochladen

  • Benutzerverwaltung - Mehrbenutzerunterstützung

  • Verlauf - Gesprächs-Persistenz

  • Ollama-Integration - Funktioniert sofort

Schnelle Bereitstellung auf CLORE.AI

Docker-Image:

ghcr.io/open-webui/open-webui:cuda

Ports:

22/tcp
8080/http

Befehl:

Zugriff auf Ihren Dienst

Nach der Bereitstellung finden Sie Ihre http_pub URL in Meine Bestellungen:

  1. Gehen Sie zur Meine Bestellungen Seite

  2. Klicken Sie auf Ihre Bestellung

  3. Finden Sie die http_pub URL (z. B., abc123.clorecloud.net)

Verwenden Sie https://IHRE_HTTP_PUB_URL anstelle von localhost in den Beispielen unten.

Überprüfen, ob es funktioniert

Antwort:

circle-exclamation

Installation

Mit Ollama (empfohlen)

All-in-One (mitgeliefertes Ollama)

Erste Einrichtung

  1. Öffnen http://your-server:8080

  2. Admin-Konto erstellen (der erste Benutzer wird Admin)

  3. Gehe zu Einstellungen → Modelle → Ein Modell herunterladen

  4. Beginne zu chatten!

Funktionen

Chat-Oberfläche

  • Markdown-Darstellung

  • Code-Hervorhebung

  • Bildgenerierung (mit kompatiblen Modellen)

  • Sprach-Ein-/Ausgabe

  • Dateianhänge

Modellverwaltung

  • Modelle direkt aus der UI herunterladen

  • Eigene Modelle erstellen

  • Standardmodell festlegen

  • Modellspezifische Einstellungen

RAG (Dokumenten-Chat)

  1. Klicke auf "+" im Chat

  2. PDF-, TXT- oder andere Dokumente hochladen

  3. Fragen zum Inhalt stellen

Benutzerverwaltung

  • Mehrere Benutzer

  • Rollenbasierter Zugriff

  • API-Schlüsselverwaltung

  • Nutzungsverfolgung

Konfiguration

Umgebungsvariablen

Wichtige Einstellungen

Variable
Beschreibung
Standard

OLLAMA_BASE_URL

Ollama API-URL

http://localhost:11434

WEBUI_AUTH

Authentifizierung aktivieren

True

WEBUI_NAME

Instanzname

WebUI öffnen

DEFAULT_MODELS

Standardmodell

-

ENABLE_RAG_WEB_SEARCH

Websuche in RAG

False

Mit Remote-Ollama verbinden

Docker Compose

API-Referenz

Open WebUI stellt mehrere API-Endpunkte bereit:

Endpunkt
Methode
Beschreibung

/health

GET

Health-Check

/api/version

GET

Open WebUI-Version abrufen

/api/config

GET

Konfiguration abrufen

/ollama/api/tags

GET

Ollama-Modelle auflisten (proxied)

/ollama/api/chat

POST

Mit Ollama chatten (proxied)

Gesundheitsprüfung

Antwort: true

Version abrufen

Antwort:

Modelle auflisten (über Ollama-Proxy)

circle-info

Die meisten API-Operationen erfordern Authentifizierung. Verwende die Weboberfläche, um ein Konto zu erstellen und API-Schlüssel zu verwalten.

Tipps

Schnellere Antworten

  1. Verwende quantisierte Modelle (Q4_K_M)

  2. Streaming in den Einstellungen aktivieren

  3. Bei Bedarf Kontextlänge reduzieren

Bessere Qualität

  1. Verwende größere Modelle (13B+)

  2. Verwende Q8-Quantisierung

  3. Temperatur in den Modelleinstellungen anpassen

Ressourcen sparen

  1. Setze OLLAMA_KEEP_ALIVE=5m

  2. Unbenutzte Modelle entladen

  3. Für Tests kleinere Modelle verwenden

GPU-Anforderungen

Das Gleiche wie Ollama.

Open WebUI selbst benötigt minimale Ressourcen (~500MB RAM).

Fehlerbehebung

Kann keine Verbindung zu Ollama herstellen

Modelle werden nicht angezeigt

  1. Verbindung zu Ollama in den Einstellungen prüfen

  2. Modellliste aktualisieren

  3. Modelle über CLI herunterladen: ollama pull modelname

Langsame Leistung

  1. Prüfe, ob die GPU verwendet wird: nvidia-smi

  2. Versuche kleinere/quantisierte Modelle

  3. Gleichzeitige Benutzer reduzieren

Kostenabschätzung

Einrichtung
GPU
Stündlich

Basic (7B)

RTX 3060

~$0.03

Standard (13B)

RTX 3090

~$0.06

Erweitert (34B)

RTX 4090

~$0.10

Enterprise (70B)

A100

~$0.17

Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?