Intégrez les modèles IA exécutés sur Clore.ai dans vos applications
Démarrage rapide
from openai import OpenAI
client = OpenAI(
base_url="http://<votre-serveur-clore>:8000/v1",
api_key="pas-nécessaire" # La plupart des auto-hébergés n'exigent pas de clé
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.1-8B-Instruct",
messages=[{"role": "user", "content": "Bonjour !"}]
)
print(response.choices[0].message.content)APIs LLM
vLLM (Compatible OpenAI)
API Ollama
API TGI
APIs de génération d'images
API Stable Diffusion WebUI
API ComfyUI
FLUX avec Diffusers
APIs audio
Whisper Transcription
Synthèse vocale (Bark)
Construction d'applications
Application de chat
Service de génération d'images
Pipeline multimodal
Gestion des erreurs
Bonnes pratiques
Prochaines étapes
Mis à jour
Ce contenu vous a-t-il été utile ?