Integración API

Integra modelos AI que se ejecutan en Clore.ai en tus aplicaciones

💡 Recomendado: Use el oficial SDK de Python de clore-ai en lugar de solicitudes HTTP sin procesar para gestionar servidores y pedidos de Clore.ai. Límite de tasa incorporado, reintentos, seguridad de tipos y soporte asíncrono.

Integra modelos de IA ejecutándose en CLORE.AI en tus aplicaciones.

circle-check

Inicio Rápido

La mayoría de los servicios de IA en CLORE.AI ofrecen APIs compatibles con OpenAI. Reemplaza la URL base y estarás listo.

from openai import OpenAI

client = OpenAI(
    base_url="http://<tu-servidor-clore>:8000/v1",
    api_key="no-necesario"  # La mayoría de las instalaciones autohospedadas no requieren clave
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "¡Hola!"}]
)
print(response.choices[0].message.content)

APIs LLM

vLLM (Compatible con OpenAI)

Configuración del servidor:

Cliente Python:

Cliente Node.js:

cURL:

API de Ollama

Python:

Ollama también soporta el formato de OpenAI:

API de TGI

Python:


APIs de Generación de Imágenes

API de Stable Diffusion WebUI

Habilitar API: Agregar --api al comando de lanzamiento.

Python:

Node.js:

API de ComfyUI

Python:

WebSocket para progreso:

FLUX con Diffusers


APIs de Audio

Transcripción Whisper

Usando whisper-asr-webservice:

API directa de Whisper:

Texto a voz (Bark)


Construyendo Aplicaciones

Aplicación de Chat

Servicio de Generación de Imágenes

Canal Multi-Modal


Manejo de Errores


Mejores Prácticas

  1. Pool de conexiones - Reutiliza conexiones HTTP

  2. Peticiones asíncronas - Usa aiohttp para llamadas concurrentes

  3. Tiempos de espera - Siempre establece timeouts en las solicitudes

  4. Lógica de reintento - Maneja fallos temporales

  5. Limitación de tasa - No sobrecargues el servidor

  6. Cheques de salud - Monitorea la disponibilidad del servidor


Próximos Pasos

Última actualización

¿Te fue útil?