Asistente AI LobeChat

Despliega LobeChat en Clore.ai — una interfaz de chat de IA impresionante y rica en funciones con soporte multi-proveedor, base de conocimientos y plugins ejecutándose en servidores en la nube respaldados por GPU y asequibles.

Resumen

LobeChatarrow-up-right es un marco de chat de IA moderno y de código abierto con más de 55K estrellas en GitHub, conocido por su interfaz pulida y su extenso conjunto de funciones. Admite prácticamente todos los principales proveedores de LLM: OpenAI, Anthropic Claude, Google Gemini, Mistral y modelos locales a través de Ollama, todo desde una única interfaz autohospedada.

¿Por qué ejecutar LobeChat en Clore.ai?

  • No se requiere GPU — El propio LobeChat es una aplicación web ligera. Las instancias de Clore.ai solo con CPU o con GPU mínima son perfectamente suficientes para la interfaz.

  • Emparejar con LLMs locales — Inicia Ollama o vLLM en el mismo servidor Clore.ai y configura LobeChat para usarlo para inferencia totalmente local y privada.

  • Alojamiento asequible — Una instancia básica de Clore.ai cuesta una fracción de los proveedores VPS tradicionales, y puedes apagarla cuando no la uses.

  • Propiedad total de los datos — El modo Base de datos almacena todas las conversaciones, archivos y embeddings en tu propia instancia de PostgreSQL en el servidor.

LobeChat opera en dos modos distintos:

Modo
Descripción
Mejor para

Independiente

Contenedor Docker único, configuración almacenada en el navegador

Pruebas rápidas, uso personal

Base de datos

Pila completa (PostgreSQL + MinIO + Auth + App)

Equipos, historial persistente, base de conocimientos


Requisitos

Especificaciones del servidor

Componente
Mínimo
Recomendado
Notas

GPU

Ninguna requerida

RTX 3090 (si ejecutas LLMs locales)

Solo necesaria para backend Ollama/vLLM

VRAM

24 GB (RTX 3090)

Para inferencia de modelos locales

CPU

2 vCPU

4+ vCPU

El propio LobeChat es ligero

RAM

2 GB

8 GB

4+ GB si usas el modo base de datos

Almacenamiento

10 GB

50+ GB

Más si almacenas archivos subidos o modelos

Referencia de precios de Clore.ai

Tipo de servidor
Costo aprox.
Caso de uso

Instancia solo CPU

~$0.05–0.10/h

Solo LobeChat independiente

RTX 3090 (24 GB VRAM)

~$0.20/h

LobeChat + Ollama LLMs locales

RTX 4090 (24 GB VRAM)

~$0.35/h

LobeChat + inferencia local más rápida

A100 80 GB

~$1.10/h

LobeChat + modelos grandes (70B+)

💡 Consejo: Para uso solo vía API (conectándose a OpenAI, Anthropic, etc.), cualquier instancia pequeña funciona. Un servidor con GPU solo tiene sentido si también quieres ejecutar LLMs locales. Ver Guía de comparación de GPU para más detalles.

Prerrequisitos

  • Cuenta de Clore.ai con un servidor desplegado

  • Acceso SSH a tu servidor

  • Docker y Docker Compose (preinstalados en servidores Clore.ai)

  • Controladores NVIDIA (preinstalados; solo relevantes si usas el backend LLM local)

  • Al menos una clave API (OpenAI, Anthropic, etc.) o una instancia local de Ollama


Inicio rápido

Opción A: Modo independiente (recomendado para empezar)

El modo independiente ejecuta LobeChat como un único contenedor. La configuración y el historial de conversaciones se almacenan en el almacenamiento local del navegador: no se requiere base de datos.

Paso 1: Conéctate a tu servidor Clore.ai

Paso 2: Descargar y ejecutar LobeChat

Paso 3: Verificar que está en ejecución

Paso 4: Acceder a la interfaz

Abre tu navegador y navega a:

⚠️ Nota de seguridad: Los servidores Clore.ai son accesibles públicamente. Considera configurar ACCESS_CODE para proteger con contraseña tu instancia (ver la sección de Configuración más abajo).


Opción B: Independiente con múltiples proveedores

Pasa múltiples claves API para soportar diferentes proveedores simultáneamente:


Opción C: Con backend local Ollama

Si tienes Ollama ejecutándose en el mismo servidor Clore.ai (ver Guía de Ollama):

En Linux, reemplaza host-gateway con la IP real del puente Docker, típicamente 172.17.0.1:


Opción D: Modo Base de datos (Docker Compose)

El modo Base de datos habilita historial persistente de conversaciones, soporte multiusuario, subidas de archivos a almacenamiento compatible con S3 y una base de conocimientos completa.

Paso 1: Crear directorio del proyecto

Paso 2: Crear docker-compose.yml

Paso 3: Iniciar la pila

Paso 4: Crear bucket en MinIO


Configuración

Referencia de variables de entorno

Variable
Descripción
Valor por defecto

OPENAI_API_KEY

Clave API de OpenAI

OPENAI_PROXY_URL

Punto final personalizado compatible con OpenAI

https://api.openai.com/v1

ANTHROPIC_API_KEY

Clave API de Anthropic Claude

GOOGLE_API_KEY

Clave API de Google Gemini

MISTRAL_API_KEY

Clave API de Mistral AI

OLLAMA_PROXY_URL

URL a la instancia local de Ollama

ACCESS_CODE

Contraseña para proteger la interfaz

DEFAULT_AGENT_CONFIG

Configuración JSON para el comportamiento predeterminado del asistente

FEATURE_FLAGS

Habilitar/deshabilitar funciones específicas

Habilitando funciones específicas

Habilitar complemento de búsqueda web:

Habilitar texto a voz:

Establecer prompt de sistema personalizado para el agente predeterminado:

Actualizando LobeChat

Para Docker Compose:


Aceleración por GPU

El propio LobeChat sí soportan requiere GPU. Sin embargo, cuando se combina con un backend acelerado por GPU en Clore.ai, obtienes inferencia local y privada de LLM:

Emparejamiento con vLLM (inferencia de alto rendimiento)

Ver el Guía de vLLM para la configuración completa. Integración rápida:

Uso de recursos

Backend
VRAM de GPU usada
Rendimiento aproximado

Ollama (Llama 3.2 3B)

~2 GB

50–80 tokens/seg en 3090

Ollama (Llama 3.1 8B)

~6 GB

40–60 tokens/seg en 3090

vLLM (Llama 3.1 8B)

~16 GB

80–150 tokens/seg en 3090

vLLM (Llama 3.1 70B)

~80 GB

20–40 tokens/seg en A100 80GB


Consejos y mejores prácticas

Optimización de costos

  • Apaga tu servidor cuando esté inactivo. Clore.ai cobra por hora: usa el panel para pausar las instancias que no estés usando activamente.

  • Modo independiente para uso personal. A menos que necesites soporte multiusuario o historial persistente del lado del servidor, el modo independiente evita la sobrecarga de PostgreSQL y MinIO.

  • Usa proveedores de API para modelos grandes. Enrutear solicitudes a Claude o GPT-4 a través de APIs externas es más barato que alquilar una H100 para consultas ocasionales.

Seguridad

  • Nunca expongas LobeChat sin un ACCESS_CODE en una IP pública.

  • Considera usar Nginx como proxy inverso con HTTPS si lo ejecutas a largo plazo.

  • Rota las claves API si sospechas exposición.

Rendimiento

  • Para el modo base de datos con 10+ usuarios concurrentes, asegúrate de al menos 8 GB de RAM en el host.

  • MinIO funciona mejor con almacenamiento respaldado por SSD (instancias NVMe de Clore.ai).

Persistencia entre sesiones de Clore.ai

Dado que los servidores Clore.ai pueden terminarse:

Exporta regularmente conversaciones desde Configuración → Exportar datos en la UI.


Solución de problemas

El contenedor no se inicia

No se puede conectar a Ollama desde LobeChat

Errores de conexión a la base de datos (modo base de datos)

Imágenes/archivos no se suben (modo base de datos)

Errores de falta de memoria


Lecturas adicionales

Última actualización

¿Te fue útil?