Intégrez les modèles IA exécutés sur Clore.ai dans vos applications

Intégrez des modèles d'IA exécutés sur CLORE.AI dans vos applications.

circle-check

Démarrage rapide

La plupart des services d'IA sur CLORE.AI fournissent des API compatibles OpenAI. Remplacez l'URL de base et vous êtes prêt.

from openai import OpenAI

client = OpenAI(
    base_url="http://<votre-serveur-clore>:8000/v1",
    api_key="pas-nécessaire"  # La plupart des auto-hébergés n'exigent pas de clé
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Bonjour !"}]
)
print(response.choices[0].message.content)

APIs LLM

vLLM (Compatible OpenAI)

Configuration du serveur :

Client Python :

Client Node.js :

cURL :

API Ollama

Python :

Ollama prend également en charge le format OpenAI :

API TGI

Python :


APIs de génération d'images

API Stable Diffusion WebUI

Activer l'API : Ajoutez --api à la commande de lancement.

Python :

Node.js :

API ComfyUI

Python :

WebSocket pour la progression :

FLUX avec Diffusers


APIs audio

Whisper Transcription

Utilisation de whisper-asr-webservice :

API Whisper directe :

Synthèse vocale (Bark)


Construction d'applications

Application de chat

Service de génération d'images

Pipeline multimodal


Gestion des erreurs


Bonnes pratiques

  1. Pool de connexions - Réutiliser les connexions HTTP

  2. Requêtes asynchrones - Utiliser aiohttp pour des appels concurrents

  3. Délais d'attente - Toujours définir des délais pour les requêtes

  4. Logique de retry - Gérer les pannes temporaires

  5. Limitation de débit - Ne pas surcharger le serveur

  6. Vérifications de santé - Surveiller la disponibilité du serveur


Prochaines étapes

Mis à jour

Ce contenu vous a-t-il été utile ?