API-Integration

Integrieren Sie KI-Modelle, die auf Clore.ai laufen, in Ihre Anwendungen

Integrieren Sie KI-Modelle, die auf CLORE.AI laufen, in Ihre Anwendungen.

circle-check

Schnellstart

Die meisten KI-Dienste auf CLORE.AI bieten OpenAI-kompatible APIs. Ersetzen Sie die Basis-URL und Sie sind bereit.

from openai import OpenAI

client = OpenAI(
    base_url="http://<your-clore-server>:8000/v1",
    api_key="not-needed"  # Die meisten Self-Hosting-Installationen benötigen keinen Schlüssel
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

LLM-APIs

vLLM (OpenAI-kompatibel)

Servereinrichtung:

Python-Client:

Node.js-Client:

cURL:

Ollama-API

Python:

Ollama unterstützt auch das OpenAI-Format:

TGI-API

Python:


APIs zur Bilderzeugung

Stable Diffusion WebUI API

API aktivieren: Hinzufügen --api zum Startbefehl.

Python:

Node.js:

ComfyUI-API

Python:

WebSocket für Fortschritt:

FLUX mit Diffusers


Audio-APIs

Whisper Transcription

Verwendung von whisper-asr-webservice:

Direkte Whisper-API:

Text-to-Speech (Bark)


Anwendungen erstellen

Chat-Anwendung

Bildgenerierungsdienst

Multimodale Pipeline


Fehlerbehandlung


Best Practices

  1. Verbindungs-Pooling - HTTP-Verbindungen wiederverwenden

  2. Asynchrone Anfragen - Verwenden Sie aiohttp für parallele Aufrufe

  3. Time-outs - Setzen Sie immer Request-Timeouts

  4. Retry-Logik - Handhaben Sie vorübergehende Fehler

  5. Ratenbegrenzung - Überlasten Sie den Server nicht

  6. Health-Checks - Überwachen Sie die Serververfügbarkeit


Nächste Schritte

Zuletzt aktualisiert

War das hilfreich?