# भाषा मॉडल

- [अवलोकन](/guides/guides_v2-hi/language-models/language-models.md)
- [Ollama](/guides/guides_v2-hi/language-models/ollama.md): Clore.ai GPUs पर Ollama के साथ स्थानीय रूप से LLMs चलाएँ
- [Open WebUI](/guides/guides_v2-hi/language-models/open-webui.md): Clore.ai GPUs पर LLMs चलाने के लिए ChatGPT-जैसा इंटरफ़ेस
- [vLLM](/guides/guides_v2-hi/language-models/vllm.md): Clore.ai GPUs पर vLLM के साथ उच्च-थ्रूपुट LLM इन्फ़रेंस
- [Llama.cpp Server](/guides/guides_v2-hi/language-models/llamacpp-server.md): Clore.ai GPUs पर llama.cpp server के साथ कुशल LLM इन्फ़रेंस
- [Text Generation WebUI](/guides/guides_v2-hi/language-models/text-generation-webui.md): Clore.ai GPUs पर LLM इन्फ़रेंस के लिए text-generation-webui चलाएँ
- [ExLlamaV2](/guides/guides_v2-hi/language-models/exllamav2-fast.md): Clore.ai GPUs पर ExLlamaV2 के साथ अधिकतम गति वाला LLM इन्फ़रेंस
- [LocalAI](/guides/guides_v2-hi/language-models/localai-openai-compatible.md): Clore.ai पर LocalAI के साथ self-hosted OpenAI-compatible API
- [Llama 3.3 70B](/guides/guides_v2-hi/language-models/llama33.md): Clore.ai GPUs पर Meta का Llama 3.3 70B model चलाएँ
- [Mistral & Mixtral](/guides/guides_v2-hi/language-models/mistral-mixtral.md): Clore.ai GPUs पर Mistral और Mixtral models चलाएँ
- [DeepSeek Coder](/guides/guides_v2-hi/language-models/deepseek-coder.md): Clore.ai पर DeepSeek Coder के साथ best-in-class code generation
- [DeepSeek-V3](/guides/guides_v2-hi/language-models/deepseek-v3.md): Clore.ai GPUs पर असाधारण reasoning के साथ DeepSeek-V3 चलाएँ
- [DeepSeek-R1 रीजनिंग मॉडल](/guides/guides_v2-hi/language-models/deepseek-r1.md): Clore.ai GPUs पर DeepSeek-R1 open-source reasoning model चलाएँ
- [Qwen2.5](/guides/guides_v2-hi/language-models/qwen25.md): Clore.ai GPUs पर Alibaba के Qwen2.5 बहुभाषी LLMs चलाएँ
- [CodeLlama](/guides/guides_v2-hi/language-models/codellama.md): Clore.ai पर CodeLlama के साथ code जनरेट, पूर्ण, और समझाएँ
- [Gemma 2](/guides/guides_v2-hi/language-models/gemma2.md): Clore.ai GPUs पर Google के Gemma 2 models को कुशलतापूर्वक चलाएँ
- [Phi-4](/guides/guides_v2-hi/language-models/phi4.md): Clore.ai GPUs पर Microsoft का Phi-4 छोटा language model चलाएँ
- [Llama 4 (Scout & Maverick)](/guides/guides_v2-hi/language-models/llama4.md): Clore.ai GPUs पर Meta Llama 4 Scout & Maverick MoE मॉडल चलाएँ
- [Gemma 3](/guides/guides_v2-hi/language-models/gemma3.md): Clore.ai पर Google Gemma 3 बहु-माध्यमी मॉडल चलाएँ — 15x छोटा होते हुए भी Llama-405B से बेहतर
- [Mistral Small 3.1](/guides/guides_v2-hi/language-models/mistral-small.md): Clore.ai पर Mistral Small 3.1 (24B) तैनात करें — एकल GPU पर production के लिए आदर्श मॉडल
- [Qwen3.5](/guides/guides_v2-hi/language-models/qwen35.md): Clore.ai पर Alibaba Qwen3.5 चलाएँ — सबसे नया frontier model (फ़रवरी 2026)
- [GLM-5](/guides/guides_v2-hi/language-models/glm5.md): Clore.ai पर Zhipu AI द्वारा GLM-5 (744B MoE) तैनात करें — vLLM के साथ API access और self-hosting
- [GLM-4.7-Flash](/guides/guides_v2-hi/language-models/glm-47-flash.md): Clore.ai पर Zhipu AI द्वारा GLM-4.7-Flash (30B MoE) तैनात करें — 59.2% SWE-bench प्रदर्शन वाला कुशल भाषा मॉडल
- [Kimi K2.5](/guides/guides_v2-hi/language-models/kimi-k2.md): Clore.ai GPUs पर Moonshot AI द्वारा Kimi K2.5 (1T MoE बहु-माध्यमी) तैनात करें
- [Mistral Large 3 (675B MoE)](/guides/guides_v2-hi/language-models/mistral-large3.md): Clore.ai GPUs पर Mistral Large 3 — 41B active parameters वाला 675B MoE frontier model — चलाएँ
- [MiMo-V2-Flash](/guides/guides_v2-hi/language-models/mimo-v2-flash.md): Clore.ai पर स्पेक्युलेटिव डिकोडिंग के साथ MiMo-V2-Flash (309B MoE) तैनात करें — 150+ tok/s के साथ अत्यंत तेज़ इन्फ़रेंस
- [Ling-2.5-1T (1 ट्रिलियन पैरामीटर्स)](/guides/guides_v2-hi/language-models/ling25.md): Clore.ai GPUs पर Ling-2.5-1T — Ant Group का 1 ट्रिलियन पैरामीटर वाला open-source LLM, hybrid linear attention के साथ — चलाएँ
- [LFM2-24B-A2B](/guides/guides_v2-hi/language-models/lfm2-24b.md): Clore.ai पर Liquid AI द्वारा LFM2-24B-A2B तैनात करें — हाइब्रिड SSM+Attention आर्किटेक्चर, कुल 24B / 2B सक्रिय पैरामीटर के साथ
- [DeepSeek V4 (1T MoE, बहु-माध्यमी)](/guides/guides_v2-hi/language-models/deepseek-v4.md): Clore.ai GPU सर्वर्स पर DeepSeek V4 — ट्रिलियन-पैरामीटर बहु-माध्यमी ओपन-वेट मॉडल — तैनात करें
- [TGI (Text Generation Inference)](/guides/guides_v2-hi/language-models/tgi.md): Clore.ai GPUs पर प्रोडक्शन LLM सर्विंग के लिए HuggingFace Text Generation Inference (TGI) चलाएँ
- [SGLang](/guides/guides_v2-hi/language-models/sglang.md): Clore.ai GPUs पर RadixAttention के साथ उच्च-प्रदर्शन LLM सर्विंग के लिए SGLang तैनात करें
- [Aphrodite Engine](/guides/guides_v2-hi/language-models/aphrodite-engine.md): Clore.ai पर पुराने और आधुनिक GPUs पर LLM इन्फ़रेंस के लिए Aphrodite Engine चलाएँ
- [LiteLLM AI Gateway](/guides/guides_v2-hi/language-models/litellm.md): Clore.ai GPUs पर 100+ LLMs के लिए AI Gateway प्रॉक्सी के रूप में LiteLLM तैनात करें
- [MLC-LLM](/guides/guides_v2-hi/language-models/mlc-llm.md)
- [PowerInfer](/guides/guides_v2-hi/language-models/powerinfer.md)
- [LMDeploy](/guides/guides_v2-hi/language-models/lmdeploy.md)
- [Mistral.rs](/guides/guides_v2-hi/language-models/mistral-rs.md)
