Интеграция API

Интегрируйте AI-модели, работающие на Clore.ai, в ваши приложения

💡 Рекомендуется: Используйте официальный clore-ai Python SDK вместо прямых HTTP-запросов для управления серверами и заказами Clore.ai. Встроенное управление частотой запросов, повторные попытки, безопасность типов и поддержка async.

Интегрируйте AI-модели, запущенные на CLORE.AI, в ваши приложения.

circle-check

Быстрый старт

Большинство AI-сервисов на CLORE.AI предоставляют совместимые с OpenAI API. Замените базовый URL и вы готовы.

from openai import OpenAI

client = OpenAI(
    base_url="http://<your-clore-server>:8000/v1",
    api_key="not-needed"  # Большинству self-host решений ключ не нужен
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

API для LLM

vLLM (совместим с OpenAI)

Настройка сервера:

Клиент Python:

Клиент Node.js:

cURL:

Ollama API

Python:

Ollama также поддерживает формат OpenAI:

TGI API

Python:


API для генерации изображений

Stable Diffusion WebUI API

Включить API: Добавьте --api в команду запуска.

Python:

Node.js:

ComfyUI API

Python:

WebSocket для прогресса:

FLUX с Diffusers


Аудио API

Транскрипция Whisper

С использованием whisper-asr-webservice:

Прямой Whisper API:

Text-to-Speech (Bark)


Создание приложений

Чат-приложение

Сервис генерации изображений

Мультимодальный конвейер


Обработка ошибок


Рекомендуемые практики

  1. Пул соединений - Повторно используйте HTTP-соединения

  2. Асинхронные запросы - Используйте aiohttp для параллельных вызовов

  3. Таймауты - Всегда задавайте таймауты запросов

  4. Логика повторных попыток - Обрабатывайте временные сбои

  5. Ограничение скорости - Не перегружайте сервер

  6. Проверки здоровья - Мониторьте доступность сервера


Следующие шаги

Последнее обновление

Это было полезно?