Ouvrir WebUI
Interface de type ChatGPT pour exécuter des LLM sur les GPU Clore.ai
Pourquoi Open WebUI ?
Déploiement rapide sur CLORE.AI
ghcr.io/open-webui/open-webui:cuda22/tcp
8080/httpAccéder à votre service
Vérifiez que cela fonctionne
Installation
Avec Ollama (Recommandé)
Tout-en-un (Ollama inclus)
Premier démarrage
Fonctionnalités
Interface de discussion
Gestion des modèles
RAG (Discussion de documents)
Gestion des utilisateurs
Configuration
Variables d'environnement
Paramètres clés
Variable
Description
Par défaut
Se connecter à un Ollama distant
Docker Compose
Référence API
Point de terminaison
Méthode
Description
Vérifier la santé
Obtenir la version
Lister les modèles (via le proxy Ollama)
Conseils
Réponses plus rapides
Meilleure qualité
Économiser des ressources
Exigences GPU
Dépannage
Impossible de se connecter à Ollama
Les modèles n’apparaissent pas
Performance lente
Estimation des coûts
Configuration
GPU
Horaire (Hourly)
Prochaines étapes
Mis à jour
Ce contenu vous a-t-il été utile ?