Docker इमेज

Clore.ai पर AI वर्कलोड्स के लिए तैनात करने के लिए तैयार Docker इमेज

CLORE.AI पर AI वर्कलोड के लिए तैनात करने के लिए तैयार Docker इमेजें।

circle-check

त्वरित तैनाती संदर्भ

सबसे लोकप्रिय

कार्य
इमेज
पोर्ट्स

AI के साथ चैट करें

ollama/ollama

22, 11434

ChatGPT- जैसे UI

ghcr.io/open-webui/open-webui

22, 8080

इमेज जनरेशन

universonic/stable-diffusion-webui

22, 7860

नोड-आधारित इमेज जनरेशन

yanwk/comfyui-boot

22, 8188

LLM API सर्वर

vllm/vllm-openai

22, 8000


भाषा मॉडल

Ollama

यूनिवर्सल LLM रनर - किसी भी मॉडल को चलाने का सबसे आसान तरीका।

इमेज: ollama/ollama
पोर्ट्स: 22/tcp, 11434/http
कमांड: ollama serve

तैनाती के बाद:

पर्यावरण चर:


वेबUI खोलें

Ollama के लिए ChatGPT- जैसा इंटरफ़ेस।

Ollama बिल्ट-इन शामिल है। HTTP पोर्ट के माध्यम से एक्सेस करें।

स्टैंडअलोन (मौजूदा Ollama से कनेक्ट करें):


vLLM

OpenAI-संगत API के साथ उच्च-प्रदर्शन LLM सर्विंग।

बड़े मॉडलों (मल्टी-GPU) के लिए:

पर्यावरण चर:


Text Generation Inference (TGI)

HuggingFace का प्रोडक्शन LLM सर्वर।

पर्यावरण चर:


इमेज जनरेशन

Stable Diffusion WebUI (AUTOMATIC1111)

एक्सटेंशन के साथ सबसे लोकप्रिय SD इंटरफ़ेस।

कम VRAM (8GB या उससे कम) के लिए:

API एक्सेस के लिए:


ComfyUI

उन्नत उपयोगकर्ताओं के लिए नोड-आधारित वर्कफ्लो।

वैकल्पिक इमेजें:

मैनुअल सेटअप कमांड:


Fooocus

सरलीकृत SD इंटरफ़ेस, Midjourney- जैसा।


FLUX

नवीनतम उच्च-गुणवत्ता इमेज जनरेशन।

FLUX नोड्स के साथ ComfyUI का उपयोग करें:

या Diffusers के माध्यम से:


वीडियो जेनेरेशन

Stable Video Diffusion


AnimateDiff

ComfyUI के साथ उपयोग करें:

ComfyUI मैनेजर के माध्यम से AnimateDiff नोड्स स्थापित करें।


ऑडियो और वॉइस

Whisper (ट्रांसक्रिप्शन)

API उपयोग:


Bark (टेक्स्ट-टू-स्पीच)


Stable Audio


विजन मॉडल

LLaVA


Llama 3.2 Vision

Ollama का उपयोग करें:


डेवलपमेंट और प्रशिक्षण

PyTorch बेस

कस्टम सेटअप और प्रशिक्षण के लिए।

शामिल हैं: CUDA 12.1, cuDNN 8, PyTorch 2.1


Jupyter Lab

ML के लिए इंटरैक्टिव नोटबुक।

या Jupyter के साथ PyTorch बेस का उपयोग करें:


Kohya प्रशिक्षण

LoRA और मॉडल फाइन-ट्यूनिंग के लिए।


बेस इमेजेस संदर्भ

NVIDIA आधिकारिक

इमेज
CUDA
उपयोग का मामला

nvidia/cuda:12.1.0-devel-ubuntu22.04

12.1

CUDA डेवलपमेंट

nvidia/cuda:12.1.0-runtime-ubuntu22.04

12.1

केवल CUDA रनटाइम

nvidia/cuda:11.8.0-devel-ubuntu22.04

11.8

लेगेसी संगतता

PyTorch आधिकारिक

इमेज
PyTorch
CUDA

pytorch/pytorch:2.5.1-cuda12.4-cudnn9-devel

2.5

12.4

pytorch/pytorch:2.0.1-cuda11.7-cudnn8-devel

2.0

11.7

pytorch/pytorch:1.13.1-cuda11.6-cudnn8-devel

1.13

11.6

HuggingFace

इमेज
उद्देश्य

huggingface/transformers-pytorch-gpu

Transformers + PyTorch

ghcr.io/huggingface/text-generation-inference

TGI सर्वर


पर्यावरण चर

सामान्य वेरिएबल्स

वैरिएबल
विवरण
उदाहरण

HUGGING_FACE_HUB_TOKEN

गेटेड मॉडलों के लिए HF API टोकन

hf_xxx

CUDA_VISIBLE_DEVICES

GPU चयन

0,1

TRANSFORMERS_CACHE

मॉडल कैश निर्देशिका

/root/.cache

Ollama वेरिएबल्स

वैरिएबल
विवरण
डिफ़ॉल्ट

OLLAMA_HOST

बाइंड पता

127.0.0.1

OLLAMA_MODELS

मॉडलों की निर्देशिका

~/.ollama/models

OLLAMA_NUM_PARALLEL

समानांतर अनुरोध

1

vLLM वेरिएबल्स

वैरिएबल
विवरण

VLLM_ATTENTION_BACKEND

अटेंशन इम्प्लीमेंटेशन

VLLM_USE_MODELSCOPE

HF के बजाय ModelScope का उपयोग करें


पोर्ट संदर्भ

पोर्ट
प्रोटोकॉल
सेवा

22

TCP

SSH

7860

HTTP

Gradio (SD WebUI, Fooocus)

7865

HTTP

Fooocus वैकल्पिक

8000

HTTP

vLLM API

8080

HTTP

Open WebUI, TGI

8188

HTTP

ComfyUI

8888

HTTP

Jupyter

9000

HTTP

Whisper API

11434

TCP

Ollama API


टिप्स

स्थायी स्टोरेज

रिस्टार्ट्स के बीच डेटा रखने के लिए वॉल्यूम माउंट करें:

GPU चयन

मल्टी-GPU सिस्टम के लिए:

मेमोरी प्रबंधन

यदि VRAM की कमी हो रही है:

  1. छोटे मॉडल का उपयोग करें

  2. CPU ऑफलोड सक्षम करें

  3. बैच साइज घटाएँ

  4. क्वांटाइज़्ड मॉडल का उपयोग करें (GGUF Q4)

अगले कदम

Last updated

Was this helpful?