Intégration d'API

Intégrer les modèles IA exécutés sur Clore.ai dans vos applications

💡 Recommandé : Utilisez l'officiel SDK Python clore-ai au lieu de requêtes HTTP brutes pour gérer les serveurs et commandes Clore.ai. Limitation de débit intégrée, réessais, sécurité de type et support async.

Intégrez des modèles d'IA exécutés sur CLORE.AI dans vos applications.

circle-check

Démarrage rapide

La plupart des services d'IA sur CLORE.AI fournissent des API compatibles OpenAI. Remplacez l'URL de base et vous êtes prêt.

from openai import OpenAI

client = OpenAI(
    base_url="http://<votre-serveur-clore>:8000/v1",
    api_key="pas-nécessaire"  # La plupart des instances auto-hébergées n'exigent pas de clé
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Bonjour !"}]
)
print(response.choices[0].message.content)

APIs LLM

vLLM (compatible OpenAI)

Configuration du serveur :

Client Python :

Client Node.js :

cURL :

API Ollama

Python :

Ollama prend également en charge le format OpenAI :

API TGI

Python :


APIs de génération d'images

API Stable Diffusion WebUI

Activer l'API : Ajouter --api à la commande de lancement.

Python :

Node.js :

API ComfyUI

Python :

WebSocket pour le progrès :

FLUX avec Diffusers


APIs audio

Transcription Whisper

Utilisation de whisper-asr-webservice :

API Whisper directe :

Texte en parole (Bark)


Construire des applications

Application de chat

Service de génération d'images

Pipeline multimodal


Gestion des erreurs


Bonnes pratiques

  1. Pool de connexions - Réutiliser les connexions HTTP

  2. Requêtes asynchrones - Utiliser aiohttp pour des appels concurrents

  3. Timeouts - Toujours définir des délais pour les requêtes

  4. Logique de réessai - Gérer les échecs temporaires

  5. Limitation de débit - Ne pas surcharger le serveur

  6. Vérifications de santé - Surveiller la disponibilité du serveur


Étapes suivantes

Mis à jour

Ce contenu vous a-t-il été utile ?