# Introducción

> **189 guías prácticas** para implementar modelos de IA, cargas de trabajo de GPU y plataformas de IA en [Clore.ai](https://clore.ai) — el mercado descentralizado de alquiler de GPU.

{% hint style="success" %}
Todos los ejemplos pueden ejecutarse en servidores GPU alquilados a través de la [Clore.ai Marketplace](https://clore.ai/marketplace). Alquila GPUs potentes desde **$0.15/día**.
{% endhint %}

## ¿Qué es Clore.ai?

[Clore.ai](https://clore.ai) es un mercado de GPU entre pares donde alquilas GPUs directamente de otras personas, como Airbnb para cómputo. Hay miles de GPUs disponibles 24/7, desde RTX 3060 económicas hasta H100 de nivel empresarial. Paga con **CLORE**, **BTC**, **USDT**, o **USDC**.

### ¿Por qué Clore.ai para IA?

* **Asequible** — RTX 4090 desde $0.50/día (frente a $2–4 en proveedores de nube)
* **Sin compromisos** — alquila por horas, sin contratos
* **Acceso root completo** — contenedores Docker con passthrough de GPU
* **Amplia selección de GPU** — más de 3,400 máquinas, más de 12,800 GPU en línea
* **Paga a tu manera** — pagos con criptomonedas (CLORE, BTC, USDT/USDC)

## 📚 Categorías de guías

| Categoría                                                                                                                       | Guías  | Destacados                                                                                                                                       |
| ------------------------------------------------------------------------------------------------------------------------------- | ------ | ------------------------------------------------------------------------------------------------------------------------------------------------ |
| 🤖 [Modelos de lenguaje](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/language-models)                         | **40** | GLM-5.1, Llama 4, Gemma 3, Qwen3.5, Qwen3.5-Omni, GLM-5, DeepSeek V4, DeepSeek-R1, Nemotron 3 Super, Gemini 3.1 Flash Lite, Ollama, vLLM, SGLang |
| 🤖 [Plataformas y agentes de IA](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/ai-platforms)            | **18** | Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent                                                 |
| 🔊 [Audio y voz](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/audio-voice)                                             | **23** | MOSS-TTS, Voxtral TTS, Whisper, Qwen3-TTS, MiniMax Speech 2.6, Dia, ChatTTS, Kokoro, Fish Speech, MeloTTS, StyleTTS2                             |
| 🎬 [Generación de video](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/video-generation)                        | **14** | Wan2.1, Wan 2.2 VBVR, FramePack, CubeComposer 4K 360°, LTX-2, CogVideoX, SkyReels, HunyuanVideo, Mochi-1, AnimateDiff                            |
| 🎨 [Generación de imágenes](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/image-generation)                  | **11** | FLUX.2 Klein, HunyuanImage 3.0, SD 3.5, ComfyUI, InvokeAI, SD WebUI Forge                                                                        |
| 🧠 [Entrenamiento](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/training)                                            | **12** | Unsloth, Axolotl, LoRA, DreamBooth, DeepSpeed, LLaMA-Factory, TRL, LitGPT, Mergekit                                                              |
| 🏁 [Primeros pasos](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/getting-started)                                   | **8**  | Comparación de GPU, precios, preguntas frecuentes, solución de problemas                                                                         |
| 👁️ [Modelos de visión](https://docs.clore.ai/guides/guides_v2-es/modelos-de-vision/vision-models)                              | **6**  | Qwen2.5-VL, SAM2, LLaVA, Florence-2                                                                                                              |
| 🖼️ [Procesamiento de imágenes](https://docs.clore.ai/guides/guides_v2-es/procesamiento-de-imagenes/image-processing)           | **6**  | Real-ESRGAN, ControlNet, Depth Anything, ICLight                                                                                                 |
| 🧊 [Generación 3D](https://docs.clore.ai/guides/guides_v2-es/generacion-3d/3d-generation)                                       | **6**  | Hunyuan World 2.0, TRELLIS, Hunyuan3D 2.1, TripoSR, Gaussian Splatting, Nerfstudio                                                               |
| 🎭 [Cabezas parlantes](https://docs.clore.ai/guides/guides_v2-es/cabezas-parlantes/talking-heads)                               | **3**  | LivePortrait, SadTalker, Wav2Lip                                                                                                                 |
| 👤 [Rostro e identidad](https://docs.clore.ai/guides/guides_v2-es/rostro-e-identidad/face-identity)                             | **3**  | FaceFusion, InstantID, IP-Adapter                                                                                                                |
| ⚙️ [Avanzado](https://docs.clore.ai/guides/guides_v2-es/avanzado/advanced)                                                      | **5**  | Multi-GPU, integración de API, procesamiento por lotes                                                                                           |
| 🔧 [Otras cargas de trabajo](https://docs.clore.ai/guides/guides_v2-es/otras-cargas-de-trabajo/other-workloads)                 | **3**  | Blender, Kandinsky, OpenClaw                                                                                                                     |
| 💻 [Herramientas de programación de IA](https://docs.clore.ai/guides/guides_v2-es/herramientas-de-programacion-de-ia/ai-coding) | **2**  | Aider, TabbyML (Copilot autoalojado)                                                                                                             |
| 📊 [Comparaciones](https://docs.clore.ai/guides/guides_v2-es/comparaciones/comparisons)                                         | **7**  | serving de LLM, ajuste fino, generación de video, TTS, frameworks RAG, bases de datos vectoriales                                                |
| 📹 [Procesamiento de video](https://docs.clore.ai/guides/guides_v2-es/procesamiento-de-video/video-processing)                  | **2**  | FFmpeg NVENC, interpolación RIFE                                                                                                                 |
| 🎵 [Generación musical](https://docs.clore.ai/guides/guides_v2-es/generacion-musical/music-generation)                          | **1**  | ACE-Step (alternativa de código abierto a Suno)                                                                                                  |
| 🔍 [Visión por computadora](https://docs.clore.ai/guides/guides_v2-es/vision-por-computadora/computer-vision)                   | **2**  | detección YOLOv9/v10                                                                                                                             |
| 🗄️ [RAG / Bases de datos vectoriales](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/rag-vectordb) | **6**  | LlamaIndex, RAGFlow, ChromaDB, Qdrant, Milvus, Weaviate                                                                                          |
| 🔄 [MLOps](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/mlops)                                                  | **4**  | MLflow, Triton Inference Server, BentoML, ClearML                                                                                                |
| ⚡ [DevOps GPU](https://docs.clore.ai/guides/guides_v2-es/devops-de-gpu/devops-gpu)                                              | **2**  | TensorRT-LLM, ONNX Runtime                                                                                                                       |
| 🔬 [Ciencia](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/science)                                         | **3**  | AlphaFold2, ESMFold, dinámica molecular GROMACS                                                                                                  |
| 🎮 [Juegos / Streaming](https://docs.clore.ai/guides/guides_v2-es/juegos-y-streaming/gaming-streaming)                          | **1**  | juegos remotos Sunshine + Moonlight                                                                                                              |
| ₿ [Minería de criptomonedas](https://docs.clore.ai/guides/guides_v2-es/cripto-y-mineria/crypto-mining)                          | **1**  | minería CPU/GPU con XMRig                                                                                                                        |

## 🔥 Novedades (abril de 2026)

### Semana del 20 de abril de 2026 — 3 nuevas guías

* 🧊 **Hunyuan World 2.0** 🆕 — el primer modelo abierto de mundo 3D de Tencent. Texto/imagen/video → malla editable + 3D Gaussian Splatting para Unity/Unreal/Blender. \~1.2B parámetros BF16, 12–24 GB de VRAM — [guía](https://docs.clore.ai/guides/guides_v2-es/generacion-3d/hunyuan-world-2)
* 🤖 **GLM-5.1** 🆕 — el potente modelo MoE de 744B / 40B activos de Zhipu AI para programación. Contexto de 200K, licencia MIT, #1 en SWE-Bench Pro (58.4%) superando a Claude Opus 4.6 y GPT-5.4 — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/glm-5-1)
* 🔊 **MOSS-TTS** 🆕 — TTS ultraligero de 100M parámetros de OpenMOSS. Estéreo a 48 kHz, 20 idiomas, inferencia solo en CPU (no requiere GPU), clonación de voz zero-shot, Apache 2.0 — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/moss-tts)

#### Notas de la industria (13–20 de abril de 2026)

*Lanzamientos cerrados o solo por API esta semana: aún no se pueden autoalojar en Clore. Para cada uno, hemos enlazado la alternativa de pesos abiertos más cercana que puedes ejecutar hoy en Clore.*

* **Alibaba Happy Oyster** — modelo interactivo de mundo 3D en tiempo real (modos Roaming y Directing). En lista de espera / beta cerrada. → Alternativa autoalojable: [Hunyuan World 2.0](https://docs.clore.ai/guides/guides_v2-es/generacion-3d/hunyuan-world-2)
* **API de ByteDance Seedance 2.0** — abierto por completo el 14 de abril en Volcano Engine, solo por API. → Alternativas autoalojables: [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan22-vbvr), [LTX-2](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/ltx-video-2)
* **Qwen 3.6-Plus** — agente de programación propietario de Alibaba con contexto de 1M. Solo por API. → Alternativas autoalojables: [Qwen3.5-Omni](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/qwen35-omni), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/glm-5-1)
* **Meta Muse Spark** — el primer modelo propietario de Meta después de Llama. → Alternativa autoalojable: [Llama 4](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/llama4)
* **Wan 2.7** — los pesos abiertos siguen pendientes para el segundo trimestre de 2026 (actualmente solo por API vía Together AI). → Autoalójalo hoy: [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan22-vbvr)

### Semana del 13 de abril de 2026 — 2 nuevas guías

* 🤖 **Qwen3.5-Omni** 🆕 — modelo multimodal unificado de Alibaba: texto, audio, imagen y video comprensión + generación de texto y voz en un solo MoE de 30B. INT4 cabe en 24 GB de VRAM. Apache 2.0 — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/qwen35-omni)
* 🎬 **Wan 2.2 VBVR** 🆕 — referencia de video basada en video para un control de movimiento consistente. Usa un clip de referencia para dirigir la animación en la nueva generación de video. FP8 funciona en RTX 3090 (16-24 GB). Flujo de trabajo de ComfyUI incluido — [guía](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan22-vbvr)

#### Notas de la industria (6–13 de abril de 2026)

*Solo por API o con pesos abiertos pendientes: alternativas autoalojables enlazadas.*

* **Wan 2.7** (Alibaba) — generación de primer y último fotograma, edición de video a video, referencia de sujetos. Se esperan pesos abiertos a mediados del segundo trimestre de 2026. → Autoalójalo hoy: [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan22-vbvr), [Wan2.1](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan-video)
* **Qwen3.6-Plus** (Alibaba) — ventana de contexto de 1M, programación agéntica. Lanzamiento de pesos abiertos pendiente. → Alternativas autoalojables: [Qwen3.5](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/qwen35), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/glm-5-1)
* **LTX 2.3** — nuevo modelo de generación de video LTX, 22B parámetros, base de 32 GB de VRAM. → Usa la versión abierta actual: [LTX-2](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/ltx-video-2)

## 🔥 Novedades (marzo de 2026)

### Semana del 30 de marzo de 2026 — 1 nueva guía

* 🔊 **Voxtral TTS** 🆕 — modelo TTS de 4B con pesos abiertos de Mistral, 9 idiomas, clonación de voz zero-shot a partir de una referencia de 3 s, solo 3 GB de VRAM, Apache 2.0 — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/voxtral-tts)

#### Notas de la industria (23–30 de marzo)

*Solo por API / descontinuado — alternativas autoalojables enlazadas.*

* **Seedance 2.0** (ByteDance) — generación de video de nueva generación lanzada en CapCut/Dreamina. Solo por API. → Alternativas autoalojables: [Wan2.1](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan-video), [LTX-2](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/ltx-video-2)
* **Google Lyria 3 Pro** — generación musical mediante Gemini API/Vertex AI. Solo por API. → Alternativa autoalojable: [ACE-Step](https://docs.clore.ai/guides/guides_v2-es/generacion-musical/ace-step)
* **Gemini 3 Deep Think** — modelo de razonamiento de vanguardia de Google, solo por API. → Alternativas autoalojables: [DeepSeek-R1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-r1), [GLM-5.1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/glm-5-1)
* **cierre de Sora** — OpenAI cerró oficialmente la aplicación de generación de video Sora. → Alternativa autoalojable: [OpenSora](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/opensora)
* **DeepSeek V4** — todavía a la espera del lanzamiento oficial de los pesos (se detectaron fragmentos INT8 el 11 de marzo). Guía lista: [DeepSeek V4](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4)

### Semana del 16 de marzo de 2026 — 3 nuevas guías

* 🤖 **NVIDIA Nemotron 3 Super** 🆕 — MoE de 120B / 12B activos, 5× rendimiento, contexto de 1M, Apache 2.0, creado para IA agéntica — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/nvidia-nemotron-3-super.md)
* 🌐 **Gemini 3.1 Flash Lite** 🆕 — el modelo más barato y rápido de Google (3 de marzo de 2026), alternativas por API y de código abierto — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/gemini-3-1-flash-lite.md)
* 🎬 **Video 4K 360° de CubeComposer** 🆕 — primer modelo que genera de forma nativa video panorámico 4K 360° a partir de material estándar (CVPR 2026) — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/video-generation/cubecomposer-360-video.md)

### También esta semana (9–16 de marzo de 2026)

* **GPT-5.4** — lanzado el 5 de marzo de 2026; uso nativo del ordenador (75.0% en OSWorld), contexto de 1M. Solo por API, sin despliegue local. → Alternativas autoalojables: [GLM-5.1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/glm-5-1), [DeepSeek-R1](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-r1)
* **DeepSeek V4** ⏳ — pesos detectados en HuggingFace (fragmentos INT8, 11 de marzo) — lanzamiento inminente del MoE multimodal de 1T de parámetros. [Guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4) lista cuando se publique.
* **Wan 2.2** — nueva versión del modelo fundacional de generación de video Wan. → Autoalojar: [Wan 2.2 VBVR](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan22-vbvr), [Wan2.1](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan-video)

### Novedades de marzo de 2026 — 6 nuevas categorías, 57 nuevas guías

* 🗄️ **RAG / Bases de datos vectoriales** — 6 guías: [LlamaIndex](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/llamaindex), [RAGFlow](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/ragflow), [ChromaDB](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/chromadb), [Qdrant](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/qdrant), [Milvus](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/milvus), [Weaviate](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/weaviate)
* 🔄 **MLOps** — 4 guías: [MLflow](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/mlflow), [Triton Inference Server](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/triton-inference-server), [BentoML](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/bentoml), [ClearML](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/clearml)
* ⚡ **DevOps GPU** — 2 guías: [TensorRT-LLM](https://docs.clore.ai/guides/guides_v2-es/devops-de-gpu/tensorrt-llm), [ONNX Runtime](https://docs.clore.ai/guides/guides_v2-es/devops-de-gpu/onnx-runtime)
* 🔬 **Ciencia** — 3 guías: [AlphaFold2](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/alphafold2), [ESMFold](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/esmfold), [GROMACS](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/gromacs) dinámica molecular
* 🎮 **Juegos / Streaming** — [Sunshine + Moonlight](https://docs.clore.ai/guides/guides_v2-es/juegos-y-streaming/sunshine-moonlight) juegos remotos acelerados por GPU
* ₿ **Minería de criptomonedas** — [XMRig](https://docs.clore.ai/guides/guides_v2-es/cripto-y-mineria/xmrig) minería CPU/GPU en Clore.ai

### Últimos modelos añadidos (4 de marzo de 2026)

* **DeepSeek V4** ⏳ — modelo MoE multimodal de \~1T parámetros, licencia MIT, **lanzamiento inminente (pesos detectados el 11 de marzo)** — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4)
* **MiniMax Speech 2.6** 🆕 — TTS de latencia ultrabaja para agentes de voz, TTFB < 300 ms — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/minimax-speech)
* **SGLang** 🆕 — RadixAttention para compartir la caché KV, 2–5× más rendimiento que vLLM en MoE — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/sglang)
* **TGI** 🆕 — servicio de LLM en producción de HuggingFace con Flash Attention 2 + PagedAttention — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/tgi)
* **LLaMA-Factory** 🆕 — ajusta más de 100 LLMs con WebUI, LoRA/QLoRA, RLHF — [guía](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/llama-factory)
* **Fish Speech** 🆕 — clonación de voz zero-shot en más de 8 idiomas a partir de 10–15 s de audio de referencia — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/fish-speech)
* **Mochi-1** 🆕 — difusión de video de 10B parámetros, 848×480 a 30 fps, 24 GB de VRAM — [guía](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/mochi-1)

### Añadidos previamente (febrero de 2026)

* **Qwen3.5** — MoE de 397B de Alibaba, superó a Claude 4.5 Opus en matemáticas
* **GLM-5** — MoE de 744B de Zhipu AI, licencia MIT, #1 en rankings de código abierto
* **Ling-2.5-1T** — modelo de un billón de parámetros de Ant Group con atención lineal
* **Kimi K2.5** — MoE de 1T de Moonshot AI, licencia MIT, agéntico visual
* **Mistral Large 3** — MoE de 675B, Apache 2.0, programación y razonamiento de vanguardia
* **Llama 4 Scout/Maverick** — la revolución MoE de Meta, ventana de contexto de 10M
* **Gemma 3** — el modelo 27B de Google que supera a modelos de 405B
* **FLUX.2 Klein** — generación de imágenes en menos de un segundo (< 0.5 s en RTX 4090)
* **HunyuanImage 3.0** — MoE de 80B, el mayor modelo de imágenes de código abierto
* **ACE-Step 1.5** — generación de canciones completas con < 4 GB de VRAM
* **FramePack** — video con IA con solo 6 GB de VRAM
* **Qwen3-TTS** — clonación de voz en más de 10 idiomas a partir de 3 segundos de audio
* **Kani-TTS-2** — TTS ultraligero, solo 3 GB de VRAM
* **DeepSeek-R1** — modelo de razonamiento equivalente a OpenAI o1

### Categorías añadidas previamente (febrero de 2026)

* 🤖 **Plataformas y agentes de IA** — 18 guías: Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent
* 🎵 **Generación musical** — canciones compuestas por IA con voz (ACE-Step)
* 💻 **Herramientas de programación de IA** — alternativas de Copilot autoalojadas (Aider, TabbyML)
* 🔧 **OpenClaw en Clore** — ejecuta tu asistente de IA 24/7 en GPUs alquiladas

## 💰 Precios de GPU (marzo de 2026)

> Datos en vivo del marketplace de Clore.ai, muestreados el 16 de marzo de 2026 (2,592 servidores).

| GPU         | VRAM  | Rango de precio spot | Prom./hora | Ideal para                                      |
| ----------- | ----- | -------------------- | ---------- | ----------------------------------------------- |
| RTX 3060    | 12 GB | $0.16–1.00/h         | \~$0.93    | TTS, modelos pequeños, generación musical       |
| RTX 3070    | 8 GB  | $0.17–3.33/h         | \~$0.55    | modelos de 7B, Whisper, inferencia por lotes    |
| RTX 3080    | 10 GB | $0.20–3.50/h         | \~$0.79    | modelos de 7B–14B, generación de imágenes       |
| RTX 3090    | 24 GB | $0.08–4.00/h         | \~$1.24    | SDXL, modelos de 32B, generación de video       |
| RTX 4090    | 24 GB | $1.19–6.50/h         | \~$2.44    | FLUX, Llama 4, modelos de 35B                   |
| RTX 5070 Ti | 16 GB | $0.75–3.00/h         | \~$1.31    | inferencia rápida, LLMs de 30B                  |
| RTX 5080    | 16 GB | $0.90–9.00/h         | \~$1.86    | FLUX rápido, LLMs de 30B                        |
| RTX 5090    | 32 GB | $1.72–10.00/h        | \~$3.94    | 70B cuantizado, Nemotron 3 Super, el más rápido |
| A100 80GB   | 80 GB | \~$20/h              | \~$20      | 70B FP16, entrenamiento grande                  |
| H100 80GB   | 80 GB | $5–10/h              | \~$6–8     | modelos de 400B+, producción                    |

*Los pedidos spot son un 20–40% más baratos que bajo demanda. La flota de RTX 5090 ya supera las 218 tarjetas. La RTX 5070 Ti surgió como una sólida opción de gama media (73 servidores).*

## 🚀 Inicio rápido

¿Nuevo en Clore.ai? → [**Guía de inicio rápido**](https://docs.clore.ai/guides/guides_v2-es/quickstart)

¿Ya sabes lo que necesitas?

| Quiero...                                | Empieza aquí                                                                                                                                                                                                                                                               |
| ---------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Chatear con IA localmente                | [Guía de Ollama](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/ollama)                                                                                                                                                                                     |
| Generar imágenes                         | [FLUX.2 Klein](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/flux2-klein) o [ComfyUI](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/comfyui)                                                                                         |
| Generar videos                           | [FramePack](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/framepack) (¡6 GB!) o [Wan2.1](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan-video)                                                                                          |
| Clonar una voz                           | [Voxtral TTS](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/voxtral-tts), [Qwen3-TTS](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/qwen3-tts), o [Zonos](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/zonos-tts)                                 |
| Transcribir audio                        | [WhisperX](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/whisperx)                                                                                                                                                                                                 |
| Ajustar un modelo                        | [Unsloth](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/unsloth-finetune) (2x más rápido, 70% menos VRAM)                                                                                                                                                        |
| Generar música                           | [ACE-Step](https://docs.clore.ai/guides/guides_v2-es/generacion-musical/ace-step) (< 4 GB de VRAM!)                                                                                                                                                                        |
| Autoalojar Copilot                       | [TabbyML](https://docs.clore.ai/guides/guides_v2-es/herramientas-de-programacion-de-ia/tabby) ($4.50/mes)                                                                                                                                                                  |
| Ejecutar una plataforma de agentes de IA | [Dify](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/dify), [CrewAI](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/crewai), o [OpenHands](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/openhands) |
| Autoalojar una alternativa a ChatGPT     | [LibreChat](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/librechat) o [LobeChat](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/lobechat)                                                                                  |
| Ejecutar un asistente de IA 24/7         | [OpenClaw en Clore](https://docs.clore.ai/guides/guides_v2-es/otras-cargas-de-trabajo/openclaw-on-clore)                                                                                                                                                                   |
| Elegir la GPU adecuada                   | [Comparación de GPU](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/gpu-comparison)                                                                                                                                                                              |

## 📖 Documentación y soporte

* **Documentación principal**: [docs.clore.ai](https://docs.clore.ai/)
* **Estas guías**: [docs.clore.ai/guides](https://docs.clore.ai/guides/)
* **Marketplace**: [clore.ai/marketplace](https://clore.ai/marketplace)
* **Soporte**: [clore.ai/support](https://clore.ai/support) / <support@clore.ai>
* **Discord**: [discord.com/invite/clore-ai](https://discord.com/invite/clore-ai)
* **Telegram**: [@clorechat](https://t.me/clorechat)


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.clore.ai/guides/guides_v2-es/readme.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
