打开 WebUI
用于在 Clore.ai GPU 上运行 LLM 的类 ChatGPT 界面
为什么选择 Open WebUI?
在 CLORE.AI 上快速部署
ghcr.io/open-webui/open-webui:cuda22/tcp
8080/http访问您的服务
验证是否正常运行
安装
使用 Ollama(推荐)
一体化(捆绑 Ollama)
首次设置
功能
聊天界面
模型管理
RAG(文档聊天)
用户管理
配置
使用环境变量进行 SSH 和 Jupyter 访问:
关键设置
变量
4s
默认值
连接到远程 Ollama
Docker Compose
API 参考
端点
方法
4s
检查健康状态
获取版本
列出模型(通过 Ollama 代理)
提示
更快的响应
更好的质量
节省资源
GPU 要求
# 使用固定种子以获得一致结果
无法连接到 Ollama
模型未显示
性能缓慢
下载所有所需的检查点
设置
GPU
每小时
使用以下方式支付
最后更新于
这有帮助吗?