Ouvrir WebUI

Interface de type ChatGPT pour exécuter des LLM sur les GPU Clore.ai

Interface élégante de type ChatGPT pour exécuter des LLMs sur les GPU de CLORE.AI.

circle-check

Pourquoi Open WebUI ?

  • Interface de type ChatGPT - Interface familière et soignée

  • Multi-modèle - Basculer facilement entre les modèles

  • RAG intégré - Téléversez des documents pour le contexte

  • Gestion des utilisateurs - Prise en charge multi-utilisateurs

  • Historique - Persistance des conversations

  • Intégration Ollama - Fonctionne dès la sortie de l’emballage

Déploiement rapide sur CLORE.AI

Image Docker :

ghcr.io/open-webui/open-webui:cuda

Ports :

22/tcp
8080/http

Commande :

Accéder à votre service

Après le déploiement, trouvez votre http_pub URL dans Mes commandes:

  1. Aller à la Mes commandes page

  2. Cliquez sur votre commande

  3. Trouvez l' http_pub URL (par ex., abc123.clorecloud.net)

Utilisez https://VOTRE_HTTP_PUB_URL au lieu de localhost dans les exemples ci-dessous.

Vérifiez que cela fonctionne

Réponse :

circle-exclamation

Installation

Avec Ollama (Recommandé)

Tout-en-un (Ollama inclus)

Premier démarrage

  1. Ouvrir http://votre-serveur:8080

  2. Créez un compte administrateur (le premier utilisateur devient administrateur)

  3. Allez dans Paramètres → Modèles → Télécharger un modèle

  4. Commencez à discuter !

Fonctionnalités

Interface de discussion

  • Rendu Markdown

  • Surlignage de code

  • Génération d’images (avec modèles compatibles)

  • Entrée/sortie vocale

  • Pièces jointes de fichiers

Gestion des modèles

  • Télécharger des modèles directement depuis l’interface

  • Créer des modèles personnalisés

  • Définir le modèle par défaut

  • Paramètres spécifiques au modèle

RAG (Discussion de documents)

  1. Cliquez sur "+" dans le chat

  2. Téléversez des PDF, TXT ou d’autres documents

  3. Posez des questions sur le contenu

Gestion des utilisateurs

  • Utilisateurs multiples

  • Contrôle d’accès par rôle

  • Gestion des clés API

  • Suivi de l’utilisation

Configuration

Variables d'environnement

Paramètres clés

Variable
Description
Par défaut

OLLAMA_BASE_URL

URL de l’API Ollama

http://localhost:11434

WEBUI_AUTH

Activer l’authentification

True

WEBUI_NAME

Nom de l’instance

Ouvrir WebUI

DEFAULT_MODELS

Modèle par défaut

-

ENABLE_RAG_WEB_SEARCH

Recherche Web dans RAG

False

Se connecter à un Ollama distant

Docker Compose

Référence API

Open WebUI fournit plusieurs points de terminaison API :

Point de terminaison
Méthode
Description

/health

GET

Vérification de l'état

/api/version

GET

Obtenir la version d’Open WebUI

/api/config

GET

Obtenir la configuration

/ollama/api/tags

GET

Lister les modèles Ollama (proxy)

/ollama/api/chat

POST

Discuter avec Ollama (proxy)

Vérifier la santé

Réponse : true

Obtenir la version

Réponse :

Lister les modèles (via le proxy Ollama)

circle-info

La plupart des opérations API nécessitent une authentification. Utilisez l’interface web pour créer un compte et gérer les clés API.

Conseils

Réponses plus rapides

  1. Utilisez des modèles quantifiés (Q4_K_M)

  2. Activez le streaming dans les paramètres

  3. Réduisez la longueur du contexte si nécessaire

Meilleure qualité

  1. Utilisez des modèles plus grands (13B+)

  2. Utilisez la quantification Q8

  3. Ajustez la température dans les paramètres du modèle

Économiser des ressources

  1. Définir OLLAMA_KEEP_ALIVE=5m

  2. Décharger les modèles inutilisés

  3. Utilisez des modèles plus petits pour les tests

Exigences GPU

Identique à composant Ollama.

Open WebUI lui‑même utilise des ressources minimales (~500 Mo de RAM).

Dépannage

Impossible de se connecter à Ollama

Les modèles n’apparaissent pas

  1. Vérifiez la connexion à Ollama dans les Paramètres

  2. Actualisez la liste des modèles

  3. Téléchargez des modèles via la CLI : ollama pull modelname

Performance lente

  1. Vérifiez que le GPU est utilisé : nvidia-smi

  2. Essayez des modèles plus petits/quantifiés

  3. Réduisez le nombre d’utilisateurs concurrents

Estimation des coûts

Configuration
GPU
Horaire (Hourly)

Basique (7B)

RTX 3060

~$0.03

Standard (13B)

RTX 3090

~$0.06

Avancé (34B)

RTX 4090

~$0.10

Entreprise (70B)

A100

~$0.17

Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?