LibreChat Multi-Proveedor

Despliega LibreChat en Clore.ai — una alternativa potente de ChatGPT autohospedada con soporte multi-proveedor de IA, ramificación de conversaciones y ecosistema de plugins en infraestructura de nube con GPU asequible.

Resumen

LibreChatarrow-up-right es una interfaz mejorada y de código abierto similar a ChatGPT con más de 22K estrellas en GitHub. Reimagina fielmente la experiencia de ChatGPT añadiendo funciones que el original no tiene: cambio entre múltiples proveedores dentro de la misma conversación, ramificación/forking de conversaciones, un sistema de plugins rico, cargas de archivos con visión y un sandbox completo de intérprete de código.

¿Por qué ejecutar LibreChat en Clore.ai?

  • Verdadero multi-proveedor en una sola interfaz — Cambia entre GPT-4, Claude 3.5, Gemini Pro, Mistral y modelos locales de Ollama durante la misma sesión.

  • No se necesita GPU para la aplicación — LibreChat es una aplicación Node.js; solo necesita cómputo para inferencia si conectas un backend LLM local.

  • Autoalojamiento rentable — Los precios de Clore.ai comienzan en fracciones de centavo por minuto, ideal para ejecutar un hub de IA personal.

  • Conversaciones persistentes — MongoDB almacena todo tu historial de chat del lado del servidor, a diferencia de las soluciones locales en el navegador.

  • Amigable para equipos — Soporte multiusuario con gestión individual de claves API.

Características clave

Función
Descripción

Multi-proveedor

OpenAI, Anthropic, Google, Azure, Mistral, Ollama, OpenRouter

Ramificación de conversaciones

Haz fork y explora respuestas alternativas

Plugins

Bing search, Zapier, WolframAlpha, herramientas personalizadas

Cargas de archivos

Imágenes, PDFs, documentos con análisis de visión

Intérprete de código

Ejecuta Python en un contenedor aislado

Artefactos

Renderiza salidas HTML, React y Markdown

Preajustes

Guarda y comparte configuraciones de modelos personalizadas


Requisitos

Especificaciones del servidor

Componente
Mínimo
Recomendado
Notas

GPU

Ninguna requerida

RTX 3090 (si añades Ollama)

Solo para inferencia LLM local

VRAM

24 GB

Para modelos locales vía Ollama

CPU

2 vCPU

4 vCPU

Node.js + MongoDB

RAM

4 GB

8 GB

MongoDB se beneficia de más RAM

Almacenamiento

20 GB

50+ GB

Cargas de archivos, caché de modelos si es local

Referencia de precios de Clore.ai

Tipo de servidor
Costo aprox.
Caso de uso

Enfocado en CPU (4 vCPU, 8 GB RAM)

~$0.05–0.10/h

LibreChat + proveedores API externos

RTX 3090 (24 GB VRAM)

~$0.20/h

LibreChat + inferencia local con Ollama

RTX 4090 (24 GB VRAM)

~$0.35/h

LibreChat + Ollama/vLLM más rápido

A100 80 GB

~$1.10/h

LibreChat + modelos grandes de 70B+

💡 Consejo de coste: Si solo usas LibreChat para encaminar llamadas de API a OpenAI/Anthropic/Google, solo pagas por el cómputo del servidor Clore.ai (barato), no por el hardware de inferencia. Presupuesta ~0,05–0,15 USD/h para un host LibreChat confiable.

Prerrequisitos

  • Servidor Clore.ai con acceso SSH

  • Docker + Docker Compose (preinstalado en Clore.ai)

  • Git (preinstalado en Clore.ai)

  • Al menos una clave API de LLM o un backend local Ollama/vLLM


Inicio rápido

Método 1: Docker Compose (Oficial — Recomendado)

El despliegue oficial de LibreChat usa Docker Compose con MongoDB y MeiliSearch para funcionalidad completa.

Paso 1: Conéctate a tu servidor Clore.ai

Paso 2: Clona el repositorio

Paso 3: Configura el entorno

Configura como mínimo:

Genera secretos rápidamente:

Paso 4: Inicia el stack

Esto inicia:

  • LibreChat — la aplicación principal en el puerto 3080

  • MongoDB — almacenamiento de conversaciones y usuarios

  • MeiliSearch — búsqueda rápida de conversaciones

Paso 5: Verifica y accede

Abre en el navegador:

Registra una nueva cuenta en la página de inicio de sesión.


Método 2: Imagen Docker preconstruida (Más rápido)

Si quieres evitar construir desde la fuente:


Método 3: Prueba rápida en contenedor único

Para una prueba de concepto rápida sin MongoDB (funcionalidad limitada):

⚠️ Este método requiere una instancia MongoDB separada. Usa el Método 1 para una configuración completa.


Configuración

Agregar proveedores de IA

Editar librechat.yaml (créalo en la raíz del proyecto) para configuración avanzada de proveedores:

Monta este archivo en tu docker-compose.yml:

Referencia de variables de entorno

Variable
Descripción
Ejemplo

MONGO_URI

Cadena de conexión de MongoDB

mongodb://mongodb:27017/LibreChat

JWT_SECRET

Secreto de firma JWT (64+ caracteres)

Cadena hex aleatoria

OPENAI_API_KEY

Clave OpenAI

sk-...

ANTHROPIC_API_KEY

Clave Anthropic

sk-ant-...

GOOGLE_KEY

Clave Google Gemini

IA...

ALLOW_REGISTRATION

Habilitar registro público

true / false

ALLOW_EMAIL_LOGIN

Habilitar inicio de sesión por email/contraseña

true

DEBUG_LOGGING

Registros detallados

true

SEARCH

Habilitar MeiliSearch

true

MEILI_MASTER_KEY

Clave API de MeiliSearch

Cadena aleatoria

Restringir el registro

Para uso privado, desactiva el registro público después de crear tu cuenta:

Luego reinicia: docker compose restart LibreChat

Habilitar Intérprete de Código

El intérprete de código ejecuta Python en un contenedor Docker aislado. Asegúrate de que el socket de Docker sea accesible.

Configuración de carga de archivos


Aceleración por GPU

LibreChat no soportan usa GPU directamente — es una capa de enrutamiento. La aceleración por GPU aplica a cualquier backend de inferencia local que conectes.

Conexión a Ollama (Mismo servidor)

Si ejecutas Ollama en el mismo servidor Clore.ai (ver Guía de Ollama):

Conexión a vLLM (Alto rendimiento)

Para despliegues de alta concurrencia (ver Guía de vLLM):

En librechat.yaml:

Dimensionamiento GPU para modelos locales

Tamaño del modelo
VRAM mínima
GPU Clore recomendada
Costo aprox.

7–8B (Q4)

6 GB

RTX 3090

~$0.20/h

13B (Q4)

10 GB

RTX 3090

~$0.20/h

34B (Q4)

24 GB

RTX 4090

~$0.35/h

70B (Q4)

48 GB

2× RTX 3090

~0,40 USD/h

70B (FP16)

80 GB

A100 80GB

~$1.10/h


Consejos y mejores prácticas

Gestión de costos en Clore.ai

Estrategia de backups

Restaurar desde backup

Asegurando LibreChat

  • Siempre establece valores fuertes y únicos para JWT_SECRET y CREDS_KEY

  • Deshabilita el registro después de la creación del usuario inicial: ALLOW_REGISTRATION=false

  • Usa un proxy inverso (nginx/Caddy) con HTTPS para producción

  • Actualiza regularmente la imagen Docker: docker compose pull && docker compose up -d

Proxy inverso Nginx (Opcional)


Solución de problemas

Puerto 3080 no accesible

Conexión a MongoDB rechazada

Errores JWT / Autenticación

Modelos Ollama no aparecen

Sin espacio en disco

Actualiza a la última versión


Lecturas adicionales

Última actualización

¿Te fue útil?