API 集成

将运行于 Clore.ai 的 AI 模型集成到您的应用中

将运行在 CLORE.AI 上的 AI 模型集成到您的应用中。

circle-check

快速开始

CLORE.AI 上的大多数 AI 服务提供与 OpenAI 兼容的 API。替换基础 URL 即可使用。

from openai import OpenAI

client = OpenAI(
    base_url="http://<your-clore-server>:8000/v1",
    api_key="not-needed"  # 大多数自托管不需要密钥
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

LLM API

vLLM(与 OpenAI 兼容)

服务器设置:

Python 客户端:

Node.js 客户端:

cURL:

Ollama API

Python:

Ollama 也支持 OpenAI 格式:

TGI API

Python:


图像生成 API

Stable Diffusion WebUI API

启用 API: 添加 --api 到启动命令中。

Python:

Node.js:

ComfyUI API

Python:

用于进度的 WebSocket:

FLUX 与 Diffusers


音频 API

Whisper 转录

使用 whisper-asr-webservice:

直接的 Whisper API:

文本转语音(Bark)


构建应用

聊天应用

图像生成服务

多模态管道


错误处理


最佳实践

  1. 连接池 - 重用 HTTP 连接

  2. 异步请求 - 对于并发调用使用 aiohttp

  3. 超时 - 始终设置请求超时

  4. 重试逻辑 - 处理临时故障

  5. 速率限制 - 不要压垮服务器

  6. 健康检查 - 监控服务器可用性


使用以下方式支付

最后更新于

这有帮助吗?