Integración de API

Integra modelos de IA que se ejecutan en Clore.ai en tus aplicaciones

Integra modelos de IA que se ejecutan en CLORE.AI en tus aplicaciones.

circle-check

Inicio rápido

La mayoría de los servicios de IA en CLORE.AI ofrecen APIs compatibles con OpenAI. Reemplaza la URL base y estarás listo.

from openai import OpenAI

client = OpenAI(
    base_url="http://<tu-servidor-clore>:8000/v1",
    api_key="no-necesario"  # La mayoría de las instalaciones autohospedadas no requieren clave
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "¡Hola!"}]
)
print(response.choices[0].message.content)

APIs LLM

vLLM (Compatible con OpenAI)

Configuración del servidor:

Cliente Python:

Cliente Node.js:

cURL:

API de Ollama

Python:

Ollama también admite el formato OpenAI:

API de TGI

Python:


APIs de generación de imágenes

API de Stable Diffusion WebUI

Habilitar API: Agregar --api al comando de lanzamiento.

Python:

Node.js:

API de ComfyUI

Python:

WebSocket para progreso:

FLUX con Diffusers


APIs de audio

Whisper Transcription

Usando whisper-asr-webservice:

API directa de Whisper:

Texto a voz (Bark)


Construyendo aplicaciones

Aplicación de chat

Servicio de generación de imágenes

Pipeline multimodal


Manejo de errores


Mejores prácticas

  1. Agrupación de conexiones - Reutilizar conexiones HTTP

  2. Solicitudes asíncronas - Usar aiohttp para llamadas concurrentes

  3. Tiempos de espera - Siempre establecer timeouts en las solicitudes

  4. Lógica de reintentos - Manejar fallos temporales

  5. Limitación de tasa - No sobrecargar el servidor

  6. Verificaciones de salud - Monitorizar la disponibilidad del servidor


Próximos pasos

Última actualización

¿Te fue útil?