Docker-образы

Готовые к развёртыванию Docker-образы для AI-нагрузок на Clore.ai

Готовые к развертыванию Docker-образы для AI-нагрузок на CLORE.AI.

circle-check

Быстрая ссылка для развертывания

Самые популярные

Задача
Образ
Порты

Чат с ИИ

ollama/ollama

22, 11434

Интерфейс, похожий на ChatGPT

ghcr.io/open-webui/open-webui

22, 8080

Генерация изображений

universonic/stable-diffusion-webui

22, 7860

Генерация изображений на основе узлов

yanwk/comfyui-boot

22, 8188

LLM API сервер

vllm/vllm-openai

22, 8000


Языковые модели

Ollama

Универсальный исполнитель LLM — самый простой способ запускать любую модель.

Образ: ollama/ollama
Порты: 22/tcp, 11434/http
Команда: ollama serve

После развертывания:

Переменные окружения:


Открыть WebUI

Интерфейс, похожий на ChatGPT, для Ollama.

Включает встроенный Ollama. Доступ через HTTP-порт.

Автономный (подключиться к существующему Ollama):


vLLM

Высокопроизводительная подача LLM с API, совместимым с OpenAI.

Для больших моделей (много GPU):

Переменные окружения:


Text Generation Inference (TGI)

Производственный LLM-сервер от HuggingFace.

Переменные окружения:


Генерация изображений

Stable Diffusion WebUI (AUTOMATIC1111)

Самый популярный интерфейс SD с расширениями.

Для низкого объёма видеопамяти (8 ГБ или меньше):

Для доступа через API:


ComfyUI

Рабочий процесс на основе узлов для продвинутых пользователей.

Альтернативные образы:

Команда ручной настройки:


Fooocus

Упрощённый интерфейс SD, похожий на Midjourney.


FLUX

Новейшая генерация изображений высокого качества.

Используйте ComfyUI с узлами FLUX:

Или через Diffusers:


Генерация видео

Stable Video Diffusion


AnimateDiff

Использование с ComfyUI:

Установите узлы AnimateDiff через ComfyUI Manager.


Аудио и голос

Whisper (транскрипция)

Использование API:


Bark (Text-to-Speech)


Stable Audio


Модели зрения

LLaVA


Llama 3.2 Vision

Используйте Ollama:


Разработка и обучение

Базовый PyTorch

Для пользовательских настроек и обучения.

Включает: CUDA 12.1, cuDNN 8, PyTorch 2.1


Jupyter Lab

Интерактивные ноутбуки для ML.

Или используйте базовый PyTorch с Jupyter:


Обучение Kohya

Для LoRA и дообучения моделей.


Справочник базовых образов

Официальные NVIDIA

Образ
CUDA
Случай использования

nvidia/cuda:12.1.0-devel-ubuntu22.04

12.1

Разработка CUDA

nvidia/cuda:12.1.0-runtime-ubuntu22.04

12.1

Только runtime CUDA

nvidia/cuda:11.8.0-devel-ubuntu22.04

11.8

Совместимость с устаревшими версиями

Официальный PyTorch

Образ
PyTorch
CUDA

pytorch/pytorch:2.5.1-cuda12.4-cudnn9-devel

2.5

12.4

pytorch/pytorch:2.0.1-cuda11.7-cudnn8-devel

2.0

11.7

pytorch/pytorch:1.13.1-cuda11.6-cudnn8-devel

1.13

11.6

HuggingFace

Образ
Назначение

huggingface/transformers-pytorch-gpu

Transformers + PyTorch

ghcr.io/huggingface/text-generation-inference

TGI сервер


Переменные окружения

Общие переменные

Переменная
Описание
Пример

HUGGING_FACE_HUB_TOKEN

HF API токен для моделей с доступом по токену

hf_xxx

CUDA_VISIBLE_DEVICES

Выбор GPU

0,1

TRANSFORMERS_CACHE

Каталог кеша моделей

/root/.cache

Переменные Ollama

Переменная
Описание
По умолчанию

OLLAMA_HOST

Адрес привязки

127.0.0.1

OLLAMA_MODELS

Каталог моделей

~/.ollama/models

OLLAMA_NUM_PARALLEL

Параллельные запросы

1

Переменные vLLM

Переменная
Описание

VLLM_ATTENTION_BACKEND

Реализация attention

VLLM_USE_MODELSCOPE

Использовать ModelScope вместо HF


Справочник портов

Порт
Протокол
Сервис

22

TCP

SSH

7860

HTTP

Gradio (SD WebUI, Fooocus)

7865

HTTP

Альтернатива Fooocus

8000

HTTP

vLLM API

8080

HTTP

Open WebUI, TGI

8188

HTTP

ComfyUI

8888

HTTP

Jupyter

9000

HTTP

Whisper API

11434

TCP

Ollama API


Советы

Постоянное хранилище

Подключайте тома, чтобы сохранять данные между перезапусками:

Выбор GPU

Для систем с несколькими GPU:

Управление памятью

Если заканчивается видеопамять (VRAM):

  1. Используйте меньшие модели

  2. Включить выгрузку на CPU

  3. Уменьшите размер батча

  4. Используйте квантизованные модели (GGUF Q4)

Дальнейшие шаги

Последнее обновление

Это было полезно?