अक्सर पूछे जाने वाले प्रश्न

Clore.ai पर AI वर्कलोड्स उपयोग करने के बारे में अक्सर पूछे जाने वाले प्रश्न

AI वर्कलोड के लिए CLORE.AI का उपयोग करने के बारे में सामान्य प्रश्न।

circle-check

शुरुआत करना

मैं खाता कैसे बनाऊं?

  1. क्लिक करें साइन अप

  2. ईमेल और पासवर्ड दर्ज करें

  3. अपने ईमेल को सत्यापित करें

  4. हो गया! अब आप फंड जमा कर सकते हैं और GPU किराए पर ले सकते हैं

कौन से भुगतान विधियाँ स्वीकार की जाती हैं?

  • CLORE - नेटिव टोकन (अक्सर सबसे अच्छे दर देता है)

  • BTC - बिटकॉइन

  • USDT - टेदर (ERC-20, TRC-20)

  • USDC - USD Coin

न्यूनतम जमा कितनी है?

कोई सख्त न्यूनतम नहीं है, लेकिन परीक्षण शुरू करने के लिए हम $5-10 की सिफारिश करते हैं। यह बजट GPU पर कई घंटे कवर करता है।

मेरा जमा कितने समय में पहुंचता है?

मुद्रा
कन्फर्मेशन
सामान्य समय

CLORE

10

लगभग 10 मिनट

BTC

2

लगभग 20 मिनट

USDT/USDC

नेटवर्क निर्भर

1-15 मिनट


हार्डवेयर चुनना

मुझे कौन सा GPU चुनना चाहिए?

यह आपके कार्य पर निर्भर करता है:

कार्य
अनुशंसित GPU

7B मॉडल के साथ चैट

RTX 3060 12GB ($0.15–0.30/दिन)

13B-30B मॉडल के साथ चैट

RTX 3090 24GB ($0.30–1.00/दिन)

70B मॉडल के साथ चैट

RTX 5090 32GB ($1.50–3.00/दिन) या A100 40GB ($1.50–3.00/दिन)

इमेज जनरेशन (SDXL)

RTX 3090 24GB ($0.30–1.00/दिन)

इमेज जनरेशन (FLUX)

RTX 4090/5090 ($0.50–3.00/दिन)

वीडियो जनरेशन

RTX 4090+ या A100 ($0.50–3.00/दिन)

70B+ मॉडल (FP16)

A100 80GB ($2.00–4.00/दिन)

देखें GPU तुलना विस्तृत स्पेसिफिकेशन के लिए।

On-Demand और Spot में क्या अंतर है?

प्रकार
मूल्य
उपलब्धता
उत्तम हेतु

ऑन-डिमांड

निश्चित कीमत

गारंटीड

प्रोडक्शन, लंबे कार्य

स्पॉट

30-50% सस्ता

रोक दिया जा सकता है

टेस्टिंग, बैच जॉब्स

यदि किसी ने अधिक बोली लगाई तो Spot ऑर्डर समाप्त हो सकते हैं। अपना काम बार-बार सेव करें!

मुझे कितना VRAM चाहिए?

इस त्वरित गाइड का उपयोग करें:

मॉडल आकार
न्यूनतम VRAM (Q4)
अनुशंसित

7B

6GB

12GB

13B

8GB

16GB

30B

16GB

24GB

70B

35GB

48GB

देखें मॉडल संगतता पूर्ण विवरण के लिए।

सर्वर पर "Unverified" का क्या अर्थ है?

Unverified सर्वर ने CLORE.AI के हार्डवेयर सत्यापन को पूरा नहीं किया है। वे हो सकते हैं:

  • सूचीबद्ध स्पेसिफिकेशन से थोड़े अलग स्पेसिफ़िकेशन हों

  • कम भरोसेमंद हों

Verified सर्वरों के पास पुष्टि की गई स्पेसिफ़िकेशन और बेहतर विश्वसनीयता होती है।


सर्वरों से कनेक्ट करना

मैं SSH के माध्यम से कैसे कनेक्ट करूं?

आपका ऑर्डर शुरू होने के बाद:

  1. जाएँ मेरे ऑर्डर

  2. अपना ऑर्डर खोजें

  3. SSH कमांड कॉपी करें: ssh -p <port> root@<proxy-address>

  4. ऑर्डर विवरण में दिखाए गए पासवर्ड का उपयोग करें

उदाहरण:

SSH कनेक्शन अस्वीकार कर दिया गया - मैं क्या करूं?

  1. 1-2 मिनट प्रतीक्षा करें - सर्वर अभी भी शुरू हो रहा हो सकता है

  2. ऑर्डर स्थिति जाँचें - "Running" होना चाहिए

  3. पोर्ट सत्यापित करें - ऑर्डर विवरण से पोर्ट का उपयोग करें, 22 नहीं

  4. फ़ायरवॉल जाँचें - आपका नेटवर्क गैर-मानक पोर्ट ब्लॉक कर सकता है

मैं वेब इंटरफेस (Gradio, Jupyter) तक कैसे पहुँचूं?

  1. ऑर्डर विवरण में HTTP पोर्ट लिंक खोजें

  2. ब्राउज़र में खोलने के लिए लिंक पर क्लिक करें

  3. या मैन्युअल रूप से: http://<proxy-address>:<http-port>

क्या मैं VS Code Remote SSH उपयोग कर सकता हूँ?

हां! अपने में जोड़ें ~/.ssh/config:

फिर VS Code में कनेक्ट करें: Remote-SSH: Connect to Hostclore-gpu

मैं फ़ाइलें कैसे ट्रांसफ़र करूं?

सर्वर पर अपलोड करें:

सर्वर से डाउनलोड करें:

बड़े ट्रांसफ़र के लिए rsync का उपयोग करें:


AI वर्कलोड चलाना

मैं Python पैकेज कैसे इंस्टॉल करूं?

स्थायी इंस्टॉलेशनों के लिए, अपने स्टार्टअप कमांड या Docker इमेज में शामिल करें।

मेरा मॉडल मेमोरी से बाहर क्यों हो रहा है?

  1. क्वांटाइज़ेशन का उपयोग करें - Q4 FP16 की तुलना में 4x कम VRAM उपयोग करता है

  2. CPU ऑफलोड सक्षम करें - धीमा लेकिन काम करता है

  3. बैच साइज घटाएँ - batch_size=1 का उपयोग करें

  4. कंटेक्स्ट लंबाई कम करें - max_tokens घटाएं

  5. बड़ा GPU चुनें - कभी-कभी आवश्यक होता है

मैं Hugging Face मॉडल जिनके लिए लॉगिन आवश्यक है कैसे उपयोग करूं?

गेटेड मॉडल्स (Llama आदि) के लिए, पहले Hugging Face वेबसाइट पर शर्तें स्वीकार करें।

क्या मैं एक साथ कई मॉडल चला सकता/सकती हूँ?

हां, यदि आपके पास पर्याप्त VRAM है:

  • प्रत्येक मॉडल को अपनी VRAM आवंटन चाहिए

  • विभिन्न सेवाओं के लिए अलग पोर्ट का उपयोग करें

  • कुशल मल्टी-मॉडल सर्विंग के लिए vLLM पर विचार करें

ऑर्डर खत्म होने के बाद मैं अपना काम कैसे रखूं?

ऑर्डर खत्म होने से पहले:

  1. आउटपुट डाउनलोड करें: scp -P <port> root@<proxy>:/root/outputs/* ./

  2. क्लाउड पर पुश करें: aws s3 sync /root/outputs s3://bucket/

  3. Git में कमिट करें: git push

ऑर्डर खत्म होने पर डेटा खो जाता है! महत्वपूर्ण फ़ाइलों का हमेशा बैकअप रखें।


बिलिंग और ऑर्डर

बिलिंग कैसे गणना की जाती है?

  • प्रति घंटा दर × उपयोग किए गए घंटे

  • बिलिंग तब शुरू होती है जब ऑर्डर की स्थिति "Running" हो

  • न्यूनतम बिलिंग: 1 मिनट

  • आंशिक घंटे मिनट के हिसाब से बिल किए जाते हैं

मैं ऑर्डर कैसे रोकूं?

  1. जाएँ मेरे ऑर्डर

  2. क्लिक करें रोकें अपने ऑर्डर पर

  3. समाप्ति की पुष्टि करें

आपको केवल उपयोग किए गए समय के लिए ही चार्ज किया जाएगा।

क्या मैं अपना ऑर्डर बढ़ा सकता/सकती हूँ?

हाँ, यदि किसी ने आपकी Spot ऑर्डर पर अधिक बोली नहीं लगाई है। अपने बैलेंस में फंड जोड़ें और ऑर्डर स्वतः जारी रहेगा।

अगर मेरा बैलेंस खत्म हो गया तो क्या होगा?

  1. चेतावनी सूचना भेजी जाएगी

  2. ग्रेस अवधि (~5-10 मिनट)

  3. ऑर्डर समाप्त कर दिया जाएगा

  4. सारा डेटा खो जाएगा!

पर्याप्त बैलेंस रखें या कम होने से पहले अपना काम डाउनलोड कर लें।

क्या मुझे रिफंड मिल सकता है?

सपोर्ट से संपर्क करें इन मामलों के लिए:

  • हार्डवेयर समस्याएं (GPU काम नहीं कर रहा)

  • महत्त्वपूर्ण डाउनटाइम

  • बिलिंग त्रुटियाँ

रिफंड प्रदान नहीं किए जाते:

  • उपयोगकर्ता त्रुटियाँ

  • साधारण ऑर्डर उपयोग

  • Spot ऑर्डर में व्यवधान


Docker और इमेज

कौन से Docker इमेज उपलब्ध हैं?

देखें डॉकर इमेज कैटलॉग तैयार-प्रयोग के लिए इमेज के लिए:

  • ollama/ollama - LLM रनर

  • vllm/vllm-openai - हाई-परफॉर्मेंस LLM API

  • universonic/stable-diffusion-webui - इमेज जनरेशन

  • yanwk/comfyui-boot - नोड-आधारित इमेज जेन

क्या मैं अपनी खुद की Docker इमेज उपयोग कर सकता/सकती हूँ?

हाँ! ऑर्डर में अपनी इमेज निर्दिष्ट करें:

सुनिश्चित करें कि इमेज सार्वजनिक रूप से सुलभ हो या क्रेडेंशियल प्रदान करें।

मैं रीस्टार्ट के बीच डेटा कैसे स्थायी रखूं?

प्रदान किए गए वॉल्यूम माउंट पॉइंट का उपयोग करें या कस्टम वॉल्यूम निर्दिष्ट करें:


समस्याओं का निवारण

"CUDA out of memory" त्रुटि

  1. VRAM जाँचें - nvidia-smi

  2. छोटा मॉडल उपयोग करें या क्वांटाइजेशन

  3. ऑफलोड सक्षम करें - --cpu-offload

  4. बैच साइज घटाएँ - batch_size=1

  5. अन्य प्रक्रियाओं को समाप्त करें - pkill python

"Connection timed out" त्रुटि

  1. ऑर्डर स्थिति जाँचें - "Running" होना चाहिए

  2. और प्रतीक्षा करें - बड़े इमेजेस को शुरू होने में समय लगता है

  3. पोर्ट्स जाँचें - ऑर्डर से सही पोर्ट का उपयोग करें

  4. फिर से प्रयास करें - नेटवर्क समस्याएँ अस्थायी होती हैं

वेब UI लोड नहीं हो रहा

  1. स्टार्टअप के लिए प्रतीक्षा करें - कुछ UIs को 2-5 मिनट लगते हैं

  2. लॉग्स जाँचें: docker logs <container>

  3. पोर्ट सत्यापित करें - ऑर्डर विवरण से HTTP पोर्ट का उपयोग करें

  4. कमान्ड जाँचें - इसमें शामिल होना चाहिए --listen 0.0.0.0

मॉडल डाउनलोड अटके हुए हैं

  1. डिस्क स्थान जाँचें: df -h

  2. छोटा मॉडल उपयोग करें - 7B से शुरू करें

  3. प्री-डाउनलोड - Docker इमेज में शामिल करें

  4. HF टोकन जाँचें - गेटेड मॉडलों के लिए आवश्यक

इनफरेंस गति धीमी है

  1. GPU उपयोग जाँचें: nvidia-smi

  2. GPU सक्षम करें - मॉडल CPU पर हो सकता है

  3. Flash Attention का उपयोग करें - --flash-attn

  4. सेटिंग्स ऑप्टिमाइज़ करें - प्रिसिशन, बैच घटाएँ


सुरक्षा

क्या मेरा डेटा सुरक्षित है?

  • प्रत्येक ऑर्डर अलग कंटेनर में चलता है

  • ऑर्डर खत्म होने पर डेटा हटा दिया जाता है

  • नेटवर्क ट्रैफ़िक CLORE प्रॉक्सी के माध्यम से जाता है

  • किराए पर लिए गए GPU पर संवेदनशील डेटा न रखें

क्या मुझे root पासवर्ड बदलना चाहिए?

लंबे ऑर्डर्स के लिए वैकल्पिक पर अनुशंसित:

मैं API कुंजियों की रक्षा कैसे करूं?

  1. वातावरण चर का उपयोग करें - कमांड लाइन आर्ग्स नहीं

  2. Git में कमिट न करें - उपयोग करें .gitignore

  3. उपयोग के बाद हटाएं - इतिहास साफ़ करें: history -c


क्या अभी भी मदद चाहिए?

Last updated

Was this helpful?