Asistente Offline Jan.ai
Despliega Jan.ai Server en Clore.ai — un servidor LLM totalmente offline compatible con OpenAI con hub de modelos, gestión de conversaciones e inferencia acelerada por GPU impulsada por el motor Cortex.
Resumen
Requisitos
Requisitos de hardware
Nivel
GPU
VRAM
RAM
Almacenamiento
Precio de Clore.ai
Referencia de VRAM del modelo
Modelo
VRAM requerida
GPU recomendada
Requisitos de software
Inicio rápido
Paso 1 — Alquila un servidor GPU en Clore.ai
Paso 2 — Conéctate a tu servidor
Paso 3 — Instala Docker Compose (si no está presente)
Paso 4 — Despliega Jan Server con Docker Compose
Paso 5 — Verifica que el servidor está en ejecución
Paso 6 — Descarga tu primer modelo
Paso 7 — Inicia el modelo y chatea
Configuración
Variables de entorno
Variable
Valor por defecto
Descripción
Configuración multi-GPU
Configuración personalizada del modelo
Asegurar la API con un token
Aceleración por GPU
Verificando la aceleración CUDA
Cambio de backends de inferencia
Ajuste de la ventana de contexto y el tamaño de lote
Parámetro
Descripción
Recomendación
Consejos y mejores prácticas
🎯 Selección de modelos para presupuestos en Clore.ai
💾 Almacenamiento persistente de modelos
🔗 Usando Jan Server como reemplazo de OpenAI
📊 Monitorización del uso de recursos
Solución de problemas
El contenedor no arranca — GPU no encontrada
Descarga del modelo atascada o fallida
Sin VRAM (CUDA out of memory)
No se puede conectar a la API desde fuera del contenedor
Inferencia lenta (caída a CPU)
Lecturas adicionales
Última actualización
¿Te fue útil?