क्विकस्टार्ट
पहले से GPU या AI का कोई अनुभव आवश्यक नहीं। यह गाइड आपको शून्य से 5 मिनट में AI चलाने तक पहुंचाता है।
चरण 1: खाता बनाएं और धन जोड़ें
पर जाएं clore.ai → साइन अप
अपना ईमेल सत्यापित करें
पर जाएं खाता → जमा
इसके माध्यम से फंड जोड़ें CLORE, BTC, USDT, या USDC (आरम्भ के लिए न्यूनतम ~ $5)
चरण 2: एक GPU चुनें
पर जाएं मार्केटप्लेस और अपने कार्य के आधार पर चुनें:
AI से चैट (7B मॉडल)
RTX 3060 12GB
~$0.15
AI से चैट (32B मॉडल)
RTX 4090 24GB
~$0.50
छवियाँ बनाना (FLUX)
RTX 3090 24GB
~$0.30
वीडियो बनाना
RTX 4090 24GB
~$0.50
संगीत बनाना
कोई भी GPU 4GB+
~$0.15
वॉइस क्लोनिंग / TTS
RTX 3060 6GB+
~$0.15
ऑडियो ट्रांसक्राइब करना
RTX 3060 8GB+
~$0.15
मॉडल को फाइन-ट्यून करना
RTX 4090 24GB
~$0.50
70B+ मॉडल चलाना
A100 80GB
~$2.00
महत्वपूर्ण — केवल GPU ही नहीं देखें!
RAM: अधिकांश AI वर्कलोड के लिए न्यूनतम 16GB+
नेटवर्क: 500Mbps+ की सिफारिश (मॉडल HuggingFace से डाउनलोड होते हैं)
डिस्क: मॉडल संग्रहण के लिए 50GB+ खाली स्थान
त्वरित GPU मार्गदर्शिका
RTX 3060
12GB
$0.15–0.30/दिन
TTS, संगीत, छोटे मॉडल
RTX 3090
24GB
$0.30–1.00/दिन
इमेज जनरेशन, 32B मॉडल
RTX 4090
24GB
$0.50–2.00/दिन
35B तक सब कुछ, तेज़ इन्फरेंस
RTX 5090
32GB
$1.50–3.00/दिन
70B क्वांटाइज़्ड, सबसे तेज़
A100 80GB
80GB
$2.00–4.00/दिन
70B FP16, गंभीर प्रशिक्षण
H100 80GB
80GB
$3.00–6.00/दिन
400B+ MoE मॉडल
चरण 3: तैनात करें
क्लिक करें किराए पर लें अपने चुने हुए सर्वर पर, फिर कॉन्फ़िगर करें:
आर्डर प्रकार: ऑन-डिमांड (गारंटीड) या स्पॉट (30–50% सस्ता, बाधित हो सकता है)
Docker इमेज: नीचे रेसिपीज़ देखें
पोर्ट्स: हमेशा शामिल करें
22/tcp(SSH) + आपका एप पोर्टपर्यावरण: कोई भी आवश्यक API कुंजी जोड़ें
🚀 वन-क्लिक रेसिपीज़
AI से चैट (Ollama + Open WebUI)
स्थानीय AI चलाने का सबसे आसान तरीका — किसी भी ओपन मॉडल के साथ ChatGPT जैसा इंटरफ़ेस।
तैनाती के बाद, HTTP URL खोलें → खाता बनाएं → एक मॉडल चुनें (Llama 4 Scout, Gemma 3, Qwen3.5) → चैट शुरू करें!
इमेज जनरेशन (ComfyUI)
FLUX, Stable Diffusion और अधिक के लिए नोड-आधारित वर्कफ़्लो।
इमेज जनरेशन (Stable Diffusion WebUI)
Stable Diffusion, SDXL, और SD 3.5 के लिए क्लासिक UI।
LLM API सर्वर (vLLM)
OpenAI-संगत API के साथ प्रोडक्शन-ग्रेड सर्विंग।
संगीत जनरेशन (ACE-Step)
वोकल के साथ पूरे गीत जनरेट करें — किसी भी 4GB+ GPU पर काम करता है!
SSH करें, फिर:
चरण 4: जुड़ें
आपका ऑर्डर शुरू होने के बाद:
पर जाएं मेरे ऑर्डर → अपना सक्रिय ऑर्डर ढूंढें
वेब UI: HTTP URL पर क्लिक करें (उदा.,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
पहला लॉन्च 5–20 मिनट लेता है — सर्वर HuggingFace से AI मॉडल डाउनलोड करता है। इस दौरान HTTP 502 त्रुटियाँ सामान्य हैं। प्रतीक्षा करें और रिफ्रेश करें।
Ollama + Open WebUI
3–5 मिनट
ComfyUI
10–15 मिनट
vLLM
5–15 मिनट (मॉडल साइज पर निर्भर)
SD WebUI
10–20 मिनट
चरण 5: क्रिएट करना शुरू करें
एक बार आपकी सेवा चलने लगे, अपने विशिष्ट उपयोग के लिए गाइड एक्सप्लोर करें:
🤖 भाषा मॉडल (चैट, कोड, तर्क)
Ollama — मॉडल प्रबंधन का सबसे आसान तरीका
Llama 4 Scout — Meta का नवीनतम, 10M संदर्भ
Gemma 3 — Google का 27B जो 405B मॉडलों को मात देता है
Qwen3.5 — गणित में Claude 4.5 को हराया (फरवरी 2026!)
DeepSeek-R1 — चैन-ऑफ-थॉट तर्क
vLLM — प्रोडक्शन API सर्विंग
🎨 इमेज जनरेशन
FLUX.2 Klein — < 0.5 सेकंड प्रति छवि!
ComfyUI — नोड-आधारित वर्कफ़्लो
FLUX.1 — LoRA + ControlNet के साथ सर्वोच्च गुणवत्ता
Stable Diffusion 3.5 — सर्वश्रेष्ठ टेक्स्ट रेंडरिंग
🎬 वीडियो जनरेशन
FramePack — केवल 6GB VRAM की आवश्यकता!
Wan2.1 — उच्च गुणवत्ता T2V + I2V
LTX-2 — ऑडियो के साथ वीडियो
CogVideoX — Zhipu AI का वीडियो मॉडल
🔊 ऑडियो और वॉइस
Qwen3-TTS — वॉइस क्लोनिंग, 10+ भाषाएँ
WhisperX — ट्रांसक्रिप्शन + स्पीकर डायरीएज़ेशन
Dia TTS — मल्टी-स्पीकर संवाद
Kokoro — छोटा TTS, केवल 2GB VRAM
🎵 संगीत
ACE-Step — < 4GB VRAM पर पूरे गाने
💻 AI कोडिंग
🧠 प्रशिक्षण
💡 शुरुआती के लिए सुझाव
Ollama से शुरू करें — यह स्थानीय रूप से AI आज़माने का सबसे आसान तरीका है
RTX 4090 सबसे उपयुक्त है — $0.50–2/दिन पर 90% उपयोग मामलों को संभालता है
स्पॉट ऑर्डर का उपयोग करें प्रयोगों के लिए — 30–50% सस्ता
ऑन-डिमांड का उपयोग करें महत्वपूर्ण कामों के लिए — गारंटीड, बिना बाधा
अपनी आउटपुट्स डाउनलोड करें ऑर्डर समाप्त होने से पहले — फाइलें बाद में हटाई जाती हैं
CLORE टोकन से भुगतान करें — अक्सर स्थिरकॉइन्स से बेहतर दरें मिलती हैं
RAM और नेटवर्क की जांच करें — कम RAM विफलताओं का #1 कारण है
समस्या निवारण
HTTP 502 लंबे समय तक आ रहा है
पहले स्टार्टअप के लिए 10–20 मिनट प्रतीक्षा करें; RAM ≥ 16GB चेक करें
सेवा शुरू नहीं हो रही
RAM बहुत कम (जरूरत 16GB+) या मॉडल के लिए VRAM छोटा है
मॉडल डाउनलोड धीमा है
पहली रन पर सामान्य; 500Mbps+ सर्वर प्राथमिकता दें
CUDA आउट ऑफ मेमोरी
छोटा मॉडल या बड़ा GPU उपयोग करें; क्वांटाइज़्ड वर्ज़न आजमाएँ
SSH नहीं कर पा रहे
चेक करें पोर्ट कॉन्फिग में 22/tcp में हो; सर्वर के पूरी तरह स्टार्ट होने तक प्रतीक्षा करें
🐍 Python SDK और CLI (सिफारिश की गई)
क्लिक करने की बजाय कोड पसंद है? आधिकारिक SDK इंस्टॉल करें:
या सीधे Python का उपयोग करें:
→ पूर्ण Python क्विकस्टार्ट | SDK गाइड | CLI ऑटोमेशन
मदद चाहिए?
Last updated
Was this helpful?