Интеграция API

Интегрируйте модели ИИ, работающие на Clore.ai, в ваши приложения

Интегрируйте модели ИИ, работающие на CLORE.AI, в ваши приложения.

circle-check

Быстрый старт

Большинство сервисов ИИ на CLORE.AI предоставляют API, совместимые с OpenAI. Замените базовый URL и всё готово.

from openai import OpenAI

client = OpenAI(
    base_url="http://<your-clore-server>:8000/v1",
    api_key="not-needed"  # Большинству self-hosted не требуется ключ
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

API для LLM

vLLM (совместимый с OpenAI)

Настройка сервера:

Python-клиент:

Node.js-клиент:

cURL:

Ollama API

Python:

Ollama также поддерживает формат OpenAI:

TGI API

Python:


API генерации изображений

Stable Diffusion WebUI API

Включить API: Добавьте --api в команду запуска.

Python:

Node.js:

ComfyUI API

Python:

WebSocket для прогресса:

FLUX с Diffusers


Аудио API

Whisper Transcription

Использование whisper-asr-webservice:

Прямой API Whisper:

Текст в речь (Bark)


Создание приложений

Чат-приложение

Сервис генерации изображений

Мультимодальный пайплайн


Обработка ошибок


Лучшие практики

  1. Пул соединений - Повторно используйте HTTP-соединения

  2. Асинхронные запросы - Используйте aiohttp для параллельных вызовов

  3. Таймауты - Всегда задавайте таймауты запроса

  4. Логика повторных попыток - Обрабатывайте временные сбои

  5. Ограничение скорости - Не перегружайте сервер

  6. Проверки состояния - Следите за доступностью сервера


Дальнейшие шаги

Последнее обновление

Это было полезно?