LLaMA-Factory
LLaMA-Factory का उपयोग करके LoRA/QLoRA और वेब UI के साथ Clore.ai GPUs पर 100+ LLMs को फाइन-ट्यून करें
सर्वर आवश्यकताएँ
पैरामीटर
न्यूनतम
अनुशंसित
CLORE.AI पर त्वरित तैनाती
चर
उदाहरण
विवरण
चरण-दर-चरण सेटअप
1. CLORE.AI पर एक GPU सर्वर किराए पर लें
कार्य
VRAM
सिफारिश की गई GPU
2. अपने सर्वर में SSH करें
3. कार्य निर्देशिकाएँ बनाएं
4. Docker इमेज खींचें
5. LLaMA-Factory लॉन्च करें
6. वेब इंटरफेस तक पहुँचें
उपयोग के उदाहरण
उदाहरण 1: वेब UI (LLaMA Board) के जरिए LoRA फाइन-ट्यूनिंग
उदाहरण 2: CLI-आधारित QLoRA फाइन-ट्यूनिंग
उदाहरण 3: कस्टम डेटासेट अपलोड करें
उदाहरण 4: DPO (Direct Preference Optimization)
उदाहरण 5: फाइन-ट्यून किए गए मॉडल के साथ इन्फ़रेंस
कॉन्फ़िगरेशन
मुख्य ट्रेनिंग पैरामीटर
पैरामीटर
सामान्य मान
विवरण
समर्थित फाइन-ट्यूनिंग विधियाँ
विधि
मेमोरी उपयोग
गुणवत्ता
कब उपयोग करें
Multi-GPU DeepSpeed ट्रेनिंग
प्रदर्शन सुझाव
1. GPU के अनुसार सर्वोतम QLoRA सेटिंग्स
2. लंबे कॉन्टेक्स्ट के लिए Flash Attention 2
3. Gradient Checkpointing
4. सही LoRA टारगेट चुनें
5. तेज़ अनुकूलन के लिए ऊपर की लेयर्स फ्रीज़ करें
6. TensorBoard से मॉनिटर करें
समस्या निवारण
समस्या: ट्रेनिंग के दौरान "CUDA out of memory"
समस्या: ट्रेनिंग लॉस घट नहीं रहा
समस्या: धीमी ट्रेनिंग गति
समस्या: वेब UI में मॉडल नहीं मिला
समस्या: डेटासेट फॉर्मेट त्रुटियाँ
समस्या: WebUI पोर्ट पहुँच योग्य नहीं
लिंक
Clore.ai GPU सिफारिशें
उपयोग केस
सिफारिश की गई GPU
Clore.ai पर अनुमानित लागत
Last updated
Was this helpful?