LocalAI
API compatible con OpenAI autohospedada con LocalAI en Clore.ai
Requisitos del servidor
Parámetro
Mínimo
Recomendado
¿Qué es LocalAI?
Modelos compatibles
Tipo
Formatos
Ejemplos
Despliegue rápido
Verificar que funciona
Modelos preinstalados
Nombre del modelo
Tipo
Descripción
Accediendo a tu servicio
Despliegue con Docker (alternativa)
Descargar modelos
Desde la galería de modelos
Desde Hugging Face
Configuración del modelo
Uso de la API
Chat Completions (compatible con OpenAI)
Streaming
Embeddings
Generación de imágenes
Ejemplos con cURL
Chat
Embeddings
Texto a voz (TTS)
Voz a texto (STT)
Reordenamiento
Referencia completa de la API
Endpoints estándar (compatibles con OpenAI)
Endpoint
Método
Descripción
Endpoints adicionales
Endpoint
Método
Descripción
Obtener versión
Documentación Swagger
Aceleración por GPU
Backend CUDA
Descarga completa a GPU
Múltiples modelos
Ajuste de rendimiento
Para velocidad
Para memoria
Benchmarks
Modelo
GPU
Tokens/seg
Solución de problemas
HTTP 502 en la URL http_pub
El modelo no carga
Respuestas lentas
Memoria insuficiente
Problemas con la generación de imágenes
Estimación de costos
GPU
VRAM
Precio/día
Bueno para
Próximos pasos
Última actualización
¿Te fue útil?