API-Integration

KI‑Modelle, die auf Clore.ai laufen, in Ihre Anwendungen integrieren

💡 Empfohlen: Verwenden Sie die offizielle clore-ai Python SDK anstatt roher HTTP-Anfragen, um Clore.ai-Server und -Aufträge zu verwalten. Eingebaute Ratenbegrenzung, Wiederholungen, Typsicherheit und Async-Unterstützung.

Integrieren Sie auf CLORE.AI laufende KI-Modelle in Ihre Anwendungen.

circle-check

Schnellstart

Die meisten KI-Dienste auf CLORE.AI bieten OpenAI-kompatible APIs. Ersetzen Sie die Basis-URL und Sie sind startklar.

from openai import OpenAI

client = OpenAI(
    base_url="http://<your-clore-server>:8000/v1",
    api_key="not-needed"  # Die meisten Self-Hosted-Instanzen benötigen keinen Schlüssel
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

LLM-APIs

vLLM (OpenAI-kompatibel)

Servereinrichtung:

Python-Client:

Node.js-Client:

cURL:

Ollama-API

Python:

Ollama unterstützt auch das OpenAI-Format:

TGI-API

Python:


Bildgenerierungs-APIs

Stable Diffusion WebUI API

API aktivieren: Fügen Sie --api zum Startbefehl hinzu.

Python:

Node.js:

ComfyUI-API

Python:

WebSocket für Fortschritt:

FLUX mit Diffusers


Audio-APIs

Whisper-Transkription

Verwendung von whisper-asr-webservice:

Direkte Whisper-API:

Text-zu-Sprache (Bark)


Anwendungsentwicklung

Chat-Anwendung

Bildgenerierungsdienst

Multimodale Pipeline


Fehlerbehandlung


Best Practices

  1. Connection-Pooling - HTTP-Verbindungen wiederverwenden

  2. Asynchrone Anfragen - Verwenden Sie aiohttp für gleichzeitige Aufrufe

  3. Timeouts - Setzen Sie stets Anfrage-Timeouts

  4. Retry-Logik - Gehen Sie mit temporären Fehlern um

  5. Ratenbegrenzung - Überlasten Sie den Server nicht

  6. Health-Checks - Überwachen Sie die Verfügbarkeit des Servers


Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?