# उपलब्ध Docker इमेजें

Clore.ai पर GPU सर्वर किराए पर लेते समय, आप प्री-कन्फ़िगर किए गए Docker इमेजों में से चुन सकते हैं या अपने स्वयं के कस्टम इमेज का उपयोग कर सकते हैं।

## Clore आधिकारिक इमेज

Clore.ai द्वारा बनाए गए पूर्व-निर्मित इमेज, विकेंद्रीकृत GPU मार्केटप्लेस के लिए अनुकूलित।

### सामान्य प्रयोजन

| Docker इमेज                               | विवरण                             | पोर्ट्स  | अद्यतन किया गया |
| ----------------------------------------- | --------------------------------- | -------- | --------------- |
| `cloreai/jupyter:ubuntu24.04-v2`          | Ubuntu 24.04 पर Jupyter Lab + SSH | 22, 8888 | जनवरी 2025 ✅    |
| `cloreai/ml-tools:0.1`                    | Jupyter Lab + VS Code वेब सर्वर   | 22, 8888 | जुलाई 2023 ⚠️   |
| `cloreai/ubuntu20.04-jupyter:latest`      | Ubuntu 20.04 + SSH + Jupyter      | 22, 8888 | नवंबर 2022 ⚠️   |
| `cloreai/ubuntu-20.04-remote-desktop:1.2` | रिमोट डेस्कटॉप GUI के साथ Ubuntu  | 22, 3389 | मई 2023 ⚠️      |
| `cloreai/torch:2.0.1`                     | PyTorch 2.0.1 + CUDA              | 22       | जुलाई 2023 ⚠️   |

### AI/ML इनफ़रेंस

| Docker इमेज                             | विवरण                             | पोर्ट्स | अद्यतन किया गया |
| --------------------------------------- | --------------------------------- | ------- | --------------- |
| `cloreai/deepseek-r1-8b:latest`         | DeepSeek R1 8B चलाने के लिए तैयार | 8000    | जनवरी 2025 ✅    |
| `cloreai/stable-diffusion-webui:latest` | AUTOMATIC1111 SD WebUI            | 7860    | सितंबर 2023 ⚠️  |
| `cloreai/oobabooga:1.5`                 | टेक्स्ट जनरेशन WebUI              | 7860    | अगस्त 2023 ⚠️   |

### इन्फ्रास्ट्रक्चर और माइनिंग

| Docker इमेज                 | विवरण                    | अद्यतन किया गया |
| --------------------------- | ------------------------ | --------------- |
| `cloreai/monitoring:0.7`    | सर्वर मॉनिटरिंग एजेंट    | सितंबर 2024 ✅   |
| `cloreai/hiveos:0.4`        | HiveOS इंटीग्रेशन        | फरवरी 2025 ✅    |
| `cloreai/openvpn-proxy:0.2` | VPN/प्रॉक्सी फ़ॉरवर्डिंग | फरवरी 2025 ✅    |
| `cloreai/proxy:0.2`         | पोर्ट फ़ॉरवर्डिंग सिस्टम | जनवरी 2024      |
| `cloreai/automining:0.1`    | ऑटो माइनिंग सेटअप        | जून 2023 ⚠️     |
| `cloreai/kuzco:latest`      | Kuzco वितरित इनफ़रेंस    | जून 2025 ✅      |
| `cloreai/partner:nastya-01` | पार्टनर इंटीग्रेशन उपकरण | अप्रैल 2025 ✅   |

> ⚠️ जिन इमेजों पर ⚠️ चिह्न है वे एक साल से अधिक समय से अपडेट नहीं हुई हैं। ML कार्यभार के लिए, विचार करें कि **कम्युनिटी इमेज** नीचे जो नए CUDA और फ्रेमवर्क संस्करण प्रदान करते हैं।

## अनुशंसित समुदाय इमेज

बड़े AI/ML समुदाय से परीक्षण-पूर्ण इमेजें जिनका सक्रिय रखरखाव और हालिया संस्करण उपलब्ध हैं।

### डीप लर्निंग फ्रेमवर्क

| इमेज                    | टैग                              | विवरण                           | उपयोग का मामला                 | पोर्ट्स            |
| ----------------------- | -------------------------------- | ------------------------------- | ------------------------------ | ------------------ |
| `pytorch/pytorch`       | `2.10.0-cuda13.0-cudnn9-runtime` | CUDA 13.0 के साथ नवीनतम PyTorch | डीप लर्निंग प्रशिक्षण/इनफ़रेंस | 8888 (Jupyter)     |
| `nvidia/cuda`           | `13.1.1-runtime-ubuntu22.04`     | NVIDIA CUDA रनटाइम              | कस्टम CUDA एप्लिकेशन           | -                  |
| `nvidia/cuda`           | `13.1.1-devel-ubuntu22.04`       | CUDA डेवलपमेंट टूल्स            | CUDA प्रोजेक्ट्स का निर्माण    | -                  |
| `tensorflow/tensorflow` | `2.15.0-gpu`                     | TensorFlow GPU समर्थन           | TensorFlow वर्कफ़्लो           | 8888 (TensorBoard) |

### LLM इनफ़रेंस इंजन

| इमेज                                            | टैग      | विवरण                     | उपयोग का मामला          | पोर्ट्स |
| ----------------------------------------------- | -------- | ------------------------- | ----------------------- | ------- |
| `vllm/vllm-openai`                              | `latest` | उच्च-प्रदर्शन LLM सर्विंग | उत्पादन LLM APIs        | 8000    |
| `ghcr.io/huggingface/text-generation-inference` | `3.3.5`  | Hugging Face TGI          | एंटरप्राइज़ LLM सर्विंग | 80      |
| `ollama/ollama`                                 | `latest` | लोकल LLM रनर              | लोकल/एज LLM डिप्लॉयमेंट | 11434   |

### इमेज जनरेशन

| इमेज                              | टैग      | विवरण                  | उपयोग का मामला       | पोर्ट्स |
| --------------------------------- | -------- | ---------------------- | -------------------- | ------- |
| `goolashe/automatic1111-sd-webui` | `latest` | Stable Diffusion WebUI | AI कला जनरेशन        | 7860    |
| `sinfallas/comfyui`               | `latest` | ComfyUI नोड-आधारित SD  | उन्नत इमेज वर्कफ़्लो | 8188    |

### डेवलपमेंट एनवायरनमेंट

| इमेज                          | टैग                            | विवरण                | उपयोग का मामला       | पोर्ट्स |
| ----------------------------- | ------------------------------ | -------------------- | -------------------- | ------- |
| `jupyter/tensorflow-notebook` | `latest`                       | Jupyter + TensorFlow | ML प्रयोग/प्रयोगशाला | 8888    |
| `jupyter/pytorch-notebook`    | `latest`                       | Jupyter + PyTorch    | डीप लर्निंग शोध      | 8888    |
| `cschranz/gpu-jupyter`        | `v1.10_cuda-12.9_ubuntu-24.04` | GPU-सक्षम Jupyter    | GPU कंप्यूटिंग       | 8888    |

## इमेज का चयन करना

### वेब इंटरफ़ेस के माध्यम से

1. पर जाएँ **मार्केटप्लेस** → सर्वर खोजें → **किराए पर लें**
2. ऑर्डर फ़ॉर्म में, चुनें **Docker इमेज** ड्रॉपडाउन से
3. प्री-कॉन्फ़िगर विकल्पों में से चुनें या कस्टम इमेज दर्ज करें
4. एक्सपोज़ किए गए पोर्ट कॉन्फ़िगर करें (कॉमा से अलग): `8888,7860,8000`)
5. यदि आवश्यक हो तो वातावरण चर जोड़ें
6. ऑर्डर सबमिट करें

### API के माध्यम से

```json
{
  "image": "pytorch/pytorch:2.10.0-cuda13.0-cudnn9-runtime",
  "ports": [8888, 8000],
  "env": {
    "JUPYTER_ENABLE_LAB": "yes"
  }
}
```

## कस्टम Docker इमेज

### समर्थित रजिस्ट्रीज़

* **Docker Hub**: `username/image:tag`
* **GitHub कंटेनर रजिस्ट्री**: `ghcr.io/user/image:tag`
* **NVIDIA NGC**: `nvcr.io/nvidia/image:tag`
* **Google कंटेनर रजिस्ट्री**: `gcr.io/project/image:tag`

### उदाहरण

```bash
# PyTorch नवीनतम CUDA 12.1 के साथ
pytorch/pytorch:2.1.0-cuda12.1-cudnn8-runtime

# NVIDIA CUDA बेस
nvidia/cuda:12.2.0-base-ubuntu22.04

# Hugging Face Transformers
huggingface/transformers-pytorch-gpu:4.35.0

# कस्टम इमेज
your-username/my-ai-model:v1.0
```

### कस्टम इमेज के लिए आवश्यकताएँ

* ✅ सार्वजनिक रूप से पहुँच योग्य होना चाहिए
* ✅ GPU इंस्टेंस के लिए NVIDIA GPU सपोर्ट शामिल होना चाहिए
* ✅ GPU त्वरण के लिए CUDA-सक्षम इमेजों पर आधारित होना चाहिए
* ✅ आवश्यक ड्राइवर और लाइब्रेरी शामिल करें
* ⚠️ बड़े इमेज (>10GB) डाउनलोड करने में अधिक समय ले सकते हैं

## पोर्ट कॉन्फ़िगरेशन

अपने अनुप्रयोगों को बाहरी रूप से पहुँच योग्य बनाने के लिए पोर्ट एक्सपोज़ करें:

| पोर्ट | सामान्य उपयोग      | फ़्रेमवर्क            |
| ----- | ------------------ | --------------------- |
| 22    | SSH एक्सेस         | सिस्टम                |
| 8888  | Jupyter नोटबुक/लैब | Jupyter               |
| 7860  | Gradio इंटरफ़ेस    | SD WebUI, Gradio ऐप्स |
| 8000  | API सर्वर          | vLLM, FastAPI         |
| 3000  | वेब अनुप्रयोग      | React, Node.js        |
| 8080  | HTTP सेवाएँ        | सामान्य वेब सेवाएँ    |
| 11434 | Ollama API         | Ollama                |
| 8188  | ComfyUI इंटरफ़ेस   | ComfyUI               |

### ऑर्डर फ़ॉर्म में पोर्ट सेट करना

```
8888,7860,8000
```

## पर्यावरण चर

अपने कंटेनरों को कॉन्फ़िगरेशन पास करें:

### सामान्य उदाहरण

```bash
# Hugging Face टोकन
HF_TOKEN=hf_your_token_here

# मॉडल कॉन्फ़िगरेशन
MODEL_NAME=meta-llama/Llama-2-7b-chat-hf
CUDA_VISIBLE_DEVICES=0

# Jupyter कॉन्फ़िगरेशन
JUPYTER_ENABLE_LAB=yes
JUPYTER_TOKEN=your_secure_token

# vLLM कॉन्फ़िगरेशन
VLLM_WORKER_MULTIPROC_METHOD=spawn
```

### सुरक्षा नोट्स

* ❌ सीक्रेट्स को पर्यावरण चर में न रखें
* ✅ अस्थायी टोकन या API कुंजियाँ उपयोग करें
* ✅ जहाँ संभव हो, सीक्रेट्स को वॉल्यूम के रूप में माउंट करें

## स्थायी स्टोरेज

### स्टोरेज स्थान

* `/workspace` - आमतौर पर किराए की अवधि के दौरान स्थायी रहता है
* `/root` - कंटेनर रीस्टार्ट पर रीसेट किया जा सकता है
* `/tmp` - अस्थायी स्टोरेज, स्थायी नहीं

### सर्वोत्तम प्रथाएँ

* महत्वपूर्ण डेटा को संग्रहित करें `/workspace`
* बैकअप के लिए बाहरी स्टोरेज का उपयोग करें (S3, GCS, आदि)
* मॉडल्स को स्थायी निर्देशिकाओं में डाउनलोड करें
* बड़े डेटासेट के लिए वॉल्यूम माउंट्स का उपयोग करें

## सर्वोत्तम प्रथाएँ

### इमेज चयन

1. **हाल के टैग्स का उपयोग करें** - बचें `latest` उत्पादन में, वर्शन वाले टैग्स पसंद करें
2. **उपयुक्त बेस चुनें** - अपने फ्रेमवर्क के साथ CUDA संस्करण मिलाएँ
3. **इमेज के आकार पर विचार करें** - छोटे इमेज तेज़ी से डाउनलोड होते हैं
4. **रखरखाव जांचें** - सक्रिय रूप से बनाए रखी जाने वाली इमेज पसंद करें

### सुरक्षा

1. **न्यूनतम पोर्ट्स एक्सपोज़ करें** - केवल उन्हीं पोर्ट्स को एक्सपोज़ करें जिनकी आपको आवश्यकता है
2. **प्रमाणीकरण का उपयोग करें** - Jupyter/वेब इंटरफ़ेस के लिए टोकन सेट करें
3. **नियमित रूप से अपडेट करें** - हालिया इमेज संस्करणों का उपयोग करें
4. **एक्सेस की निगरानी करें** - जांचें कि कौन आपकी सेवाओं से कनेक्ट कर रहा है

### प्रदर्शन

1. **GPU संगतता** - सत्यापित करें कि CUDA संस्करण आपकी आवश्यकताओं से मेल खाता है
2. **मॉडल्स को पहले से डाउनलोड करें** - तेज़ स्टार्टअप के लिए कस्टम इमेज में मॉडल शामिल करें
3. **कंटेनरों का अनुकूलन करें** - मल्टी-स्टेज बिल्ड्स का उपयोग करें, लेयर्स को न्यूनतम रखें
4. **कैश प्रबंधन** - Docker लेयर कैशिंग का लाभ उठाएँ

## समस्या निवारण

### इमेज शुरू नहीं हो रही

```bash
# जांचें कि इमेज मौजूद है और सार्वजनिक है
docker pull your-image:tag

# CUDA अनुकूलता सत्यापित करें
nvidia-smi
nvcc --version
```

**सामान्य समस्याएँ:**

* इमेज मौजूद नहीं है या निजी है
* अनुकूलित नहीं CUDA संस्करण
* अपर्याप्त डिस्क स्पेस
* गलत आर्किटेक्चर (arm64 बनाम x86\_64)

### GPU सुलभ नहीं है

```bash
# GPU उपलब्धता जांचें
nvidia-smi

# कंटेनर में CUDA का परीक्षण करें
python -c "import torch; print(torch.cuda.is_available())"
```

**समाधान:**

* GPU-संगत बेस इमेजों का उपयोग करें
* सुनिश्चित करें कि NVIDIA कंटेनर टूलकिट उपलब्ध है
* CUDA ड्राइवर अनुकूलता जांचें

### एक्सपोज़ किए गए पोर्ट्स तक पहुँच नहीं है

1. कंटेनर के पूरी तरह से शुरू होने तक प्रतीक्षा करें (लॉग जाँचें)
2. सुनिश्चित करें कि सेवा कंटेनर के अंदर चल रही है: `netstat -tlnp`
3. जाँचें कि सेवा 0.0.0.0 से बाइंड कर रही है, न कि 127.0.0.1 से
4. पुष्टि करें कि पोर्ट ऑर्डर फ़ॉर्म में एक्सपोज़ किया गया है

### प्रदर्शन समस्याएँ

* मॉडल वेट्स के लिए लोकल SSD स्टोरेज का उपयोग करें
* उपलब्ध GPU मेमोरी के लिए बैच साइज़ को अनुकूलित करें
* GPU उपयोग की निगरानी करें: `nvidia-smi -l 1`
* CPU/मेमोरी उपयोग जांचें: `htop`

## त्वरित शुरुआत उदाहरण

### PyTorch के साथ Jupyter डिप्लॉय करें

```bash
इमेज: pytorch/pytorch:2.10.0-cuda13.0-cudnn9-runtime
पोर्ट्स: 8888
कमांड: jupyter lab --ip=0.0.0.0 --allow-root --no-browser
```

### vLLM API सर्वर डिप्लॉय करें

```bash
इमेज: vllm/vllm-openai:latest
पोर्ट्स: 8000
Env: MODEL_NAME=microsoft/DialoGPT-medium
कमांड: python -m vllm.entrypoints.openai.api_server --model $MODEL_NAME --host 0.0.0.0
```

### Stable Diffusion WebUI डिप्लॉय करें

```bash
इमेज: goolashe/automatic1111-sd-webui:latest
पोर्ट्स: 7860
कमांड: --listen --api --xformers
```

### Ollama डिप्लॉय करें

```bash
इमेज: ollama/ollama:latest
पोर्ट्स: 11434
कमांड: ollama serve
# फिर: ollama run llama2 (कंटेनर के अंदर)
```
