Abrir WebUI
Interfaz tipo ChatGPT para ejecutar LLMs en GPUs de Clore.ai
¿Por qué Open WebUI?
Despliegue rápido en CLORE.AI
ghcr.io/open-webui/open-webui:cuda22/tcp
8080/httpAccediendo a tu servicio
Verificar que funciona
Instalación
Con Ollama (Recomendado)
Todo en Uno (Ollama incluido)
Primeros pasos
Características
Interfaz de chat
Gestión de modelos
RAG (Chat con documentos)
Gestión de usuarios
Configuración
Variables de entorno
Ajustes clave
Variable
Descripción
Valor por defecto
Conectar a Ollama remoto
Docker Compose
Referencia de la API
Endpoint
Método
Descripción
Comprobar estado
Obtener versión
Listar modelos (a través del proxy de Ollama)
Consejos
Respuestas más rápidas
Mejor calidad
Ahorrar recursos
Requisitos de GPU
Solución de problemas
No se puede conectar a Ollama
Los modelos no aparecen
Rendimiento lento
Estimación de costos
Configuración
GPU
Por hora
Próximos pasos
Última actualización
¿Te fue útil?