Открыть WebUI

Интерфейс, похожий на ChatGPT, для запуска LLM на GPU Clore.ai

Красивый интерфейс, похожий на ChatGPT, для запуска крупных языковых моделей на GPU CLORE.AI.

circle-check

Почему Open WebUI?

  • Интерфейс в стиле ChatGPT - Знакомый, отшлифованный интерфейс

  • Много моделей - Легко переключаться между моделями

  • Встроенный RAG - Загружайте документы для контекста

  • Управление пользователями - Поддержка нескольких пользователей

  • История - Сохранение переписок

  • Интеграция с Ollama - Работает из коробки

Быстрое развертывание на CLORE.AI

Docker-образ:

ghcr.io/open-webui/open-webui:cuda

Порты:

22/tcp
8080/http

Команда:

Доступ к вашему сервису

После развертывания найдите ваш http_pub URL в Моих заказах:

  1. Перейдите на Моих заказах страницу

  2. Нажмите на ваш заказ

  3. Найдите http_pub URL (например, abc123.clorecloud.net)

Используйте https://YOUR_HTTP_PUB_URL вместо localhost в примерах ниже.

Проверьте, что всё работает

Ответ:

circle-exclamation

Установка

С Ollama (рекомендуется)

Всё в одном (включённый Ollama)

Первоначальная настройка

  1. Откройте http://your-server:8080

  2. Создайте аккаунт администратора (первый пользователь становится администратором)

  3. Перейдите в Настройки → Модели → Загрузить модель

  4. Начните общаться!

Функции

Интерфейс чата

  • Отображение Markdown

  • Подсветка кода

  • Генерация изображений (с совместимыми моделями)

  • Голосовой ввод/вывод

  • Вложения файлов

Управление моделями

  • Загружать модели прямо из интерфейса

  • Создавать пользовательские модели

  • Установить модель по умолчанию

  • Настройки для конкретных моделей

RAG (чат по документам)

  1. Нажмите "+" в чате

  2. Загрузите PDF, TXT или другие документы

  3. Задавайте вопросы о содержимом

Управление пользователями

  • Несколько пользователей

  • Доступ на основе ролей

  • Управление API-ключами

  • Отслеживание использования

Конфигурация

Переменные окружения

Ключевые настройки

Переменная
Описание
По умолчанию

OLLAMA_BASE_URL

URL API Ollama

http://localhost:11434

WEBUI_AUTH

Включить аутентификацию

True

WEBUI_NAME

Название инстанса

Открыть WebUI

DEFAULT_MODELS

Модель по умолчанию

-

ENABLE_RAG_WEB_SEARCH

Веб-поиск в RAG

False

Подключение к удалённому Ollama

Docker Compose

Справочник API

Open WebUI предоставляет несколько API-эндпоинтов:

Эндпоинт
Метод
Описание

/health

GET

Проверка состояния

/api/version

GET

Получить версию Open WebUI

/api/config

GET

Получить конфигурацию

/ollama/api/tags

GET

Список моделей Ollama (через прокси)

/ollama/api/chat

POST

Чат с Ollama (через прокси)

Проверить состояние

Ответ: true

Получить версию

Ответ:

Список моделей (через прокси Ollama)

circle-info

Большинство операций с API требуют аутентификации. Используйте веб-интерфейс, чтобы создать аккаунт и управлять API-ключами.

Советы

Более быстрые ответы

  1. Используйте квантизированные модели (Q4_K_M)

  2. Включите стриминг в настройках

  3. При необходимости уменьшите длину контекста

Лучшее качество

  1. Используйте более крупные модели (13B+)

  2. Используйте квантизацию Q8

  3. Отрегулируйте температуру в настройках модели

Экономия ресурсов

  1. Установите OLLAMA_KEEP_ALIVE=5m

  2. Выгружайте неиспользуемые модели

  3. Используйте меньшие модели для тестирования

Требования к GPU

То же, что и Ollama.

Сам Open WebUI использует минимальные ресурсы (~500 МБ ОЗУ).

Устранение неполадок

Не удаётся подключиться к Ollama

Модели не отображаются

  1. Проверьте подключение к Ollama в настройках

  2. Обновите список моделей

  3. Скачайте модели через CLI: ollama pull modelname

Медленная работа

  1. Проверьте, используется ли GPU: nvidia-smi

  2. Попробуйте меньшие/квантизированные модели

  3. Уменьшите число одновременных пользователей

Оценка стоимости

Настройка
GPU
Ежечасно

Базовая (7B)

RTX 3060

~$0.03

Стандартная (13B)

RTX 3090

~$0.06

Продвинутая (34B)

RTX 4090

~$0.10

Корпоративная (70B)

A100

~$0.17

Дальнейшие шаги

Последнее обновление

Это было полезно?