# Introducción

> **184 guías prácticas** para implementar modelos de IA, cargas de trabajo GPU y plataformas de IA en [Clore.ai](https://clore.ai) — el mercado descentralizado de alquiler de GPU.

{% hint style="success" %}
Todos los ejemplos se pueden ejecutar en servidores GPU alquilados a través de la [Marketplace de Clore.ai](https://clore.ai/marketplace). Alquila GPU potentes desde **$0.15/día**.
{% endhint %}

## ¿Qué es Clore.ai?

[Clore.ai](https://clore.ai) es un mercado de GPU entre pares donde alquilas GPU directamente de otras personas — como Airbnb para cómputo. Hay miles de GPU disponibles 24/7, desde RTX 3060 económicas hasta H100 empresariales. Paga con **CLORE**, **BTC**, **USDT**, o **USDC**.

### ¿Por qué Clore.ai para IA?

* **Asequible** — RTX 4090 desde $0.50/día (frente a $2–4 en proveedores en la nube)
* **Sin compromisos** — alquila por hora, sin contratos
* **Acceso root completo** — contenedores Docker con passthrough de GPU
* **Amplia selección de GPU** — más de 3,400 máquinas, más de 12,800 GPU en línea
* **Paga a tu manera** — pagos con criptomonedas (CLORE, BTC, USDT/USDC)

## 📚 Categorías de guías

| Categoría                                                                                                                       | Guías  | Destacados                                                                                                                |
| ------------------------------------------------------------------------------------------------------------------------------- | ------ | ------------------------------------------------------------------------------------------------------------------------- |
| 🤖 [Modelos de lenguaje](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/language-models)                         | **38** | Llama 4, Gemma 3, Qwen3.5, GLM-5, DeepSeek V4, DeepSeek-R1, Nemotron 3 Super, Gemini 3.1 Flash Lite, Ollama, vLLM, SGLang |
| 🤖 [Plataformas y agentes de IA](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/ai-platforms)            | **18** | Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent                          |
| 🔊 [Audio y voz](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/audio-voice)                                             | **22** | Voxtral TTS, Whisper, Qwen3-TTS, MiniMax Speech 2.6, Dia, ChatTTS, Kokoro, Fish Speech, MeloTTS, StyleTTS2                |
| 🎬 [Generación de video](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/video-generation)                        | **13** | Wan2.1, FramePack, CubeComposer 4K 360°, LTX-2, CogVideoX, SkyReels, HunyuanVideo, Mochi-1, AnimateDiff                   |
| 🎨 [Generación de imágenes](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/image-generation)                  | **11** | FLUX.2 Klein, HunyuanImage 3.0, SD 3.5, ComfyUI, InvokeAI, SD WebUI Forge                                                 |
| 🧠 [Entrenamiento](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/training)                                            | **12** | Unsloth, Axolotl, LoRA, DreamBooth, DeepSpeed, LLaMA-Factory, TRL, LitGPT, Mergekit                                       |
| 🏁 [Primeros pasos](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/getting-started)                                   | **8**  | comparación de GPU, precios, preguntas frecuentes, solución de problemas                                                  |
| 👁️ [Modelos de visión](https://docs.clore.ai/guides/guides_v2-es/modelos-de-vision/vision-models)                              | **6**  | Qwen2.5-VL, SAM2, LLaVA, Florence-2                                                                                       |
| 🖼️ [Procesamiento de imágenes](https://docs.clore.ai/guides/guides_v2-es/procesamiento-de-imagenes/image-processing)           | **6**  | Real-ESRGAN, ControlNet, Depth Anything, ICLight                                                                          |
| 🧊 [Generación 3D](https://docs.clore.ai/guides/guides_v2-es/generacion-3d/3d-generation)                                       | **5**  | TRELLIS, Hunyuan3D 2.1, TripoSR, Gaussian Splatting, Nerfstudio                                                           |
| 🎭 [Cabezas parlantes](https://docs.clore.ai/guides/guides_v2-es/cabezas-parlantes/talking-heads)                               | **3**  | LivePortrait, SadTalker, Wav2Lip                                                                                          |
| 👤 [Rostro e identidad](https://docs.clore.ai/guides/guides_v2-es/rostro-e-identidad/face-identity)                             | **3**  | FaceFusion, InstantID, IP-Adapter                                                                                         |
| ⚙️ [Avanzado](https://docs.clore.ai/guides/guides_v2-es/avanzado/advanced)                                                      | **5**  | Multi-GPU, integración de API, procesamiento por lotes                                                                    |
| 🔧 [Otras cargas de trabajo](https://docs.clore.ai/guides/guides_v2-es/otras-cargas-de-trabajo/other-workloads)                 | **3**  | Blender, Kandinsky, OpenClaw                                                                                              |
| 💻 [Herramientas de codificación de IA](https://docs.clore.ai/guides/guides_v2-es/herramientas-de-codificacion-de-ia/ai-coding) | **2**  | Aider, TabbyML (Copilot autoalojado)                                                                                      |
| 📊 [Comparaciones](https://docs.clore.ai/guides/guides_v2-es/comparaciones/comparisons)                                         | **7**  | serving de LLM, fine-tuning, generación de video, TTS, frameworks RAG, bases de datos vectoriales                         |
| 📹 [Procesamiento de video](https://docs.clore.ai/guides/guides_v2-es/procesamiento-de-video/video-processing)                  | **2**  | FFmpeg NVENC, interpolación RIFE                                                                                          |
| 🎵 [Generación de música](https://docs.clore.ai/guides/guides_v2-es/generacion-de-musica/music-generation)                      | **1**  | ACE-Step (alternativa de código abierto a Suno)                                                                           |
| 🔍 [Visión por computadora](https://docs.clore.ai/guides/guides_v2-es/vision-por-computadora/computer-vision)                   | **2**  | detección YOLOv9/v10                                                                                                      |
| 🗄️ [RAG / Bases de datos vectoriales](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/rag-vectordb) | **6**  | LlamaIndex, RAGFlow, ChromaDB, Qdrant, Milvus, Weaviate                                                                   |
| 🔄 [MLOps](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/mlops)                                                  | **4**  | MLflow, Triton Inference Server, BentoML, ClearML                                                                         |
| ⚡ [GPU para DevOps](https://docs.clore.ai/guides/guides_v2-es/devops-con-gpu/devops-gpu)                                        | **2**  | TensorRT-LLM, ONNX Runtime                                                                                                |
| 🔬 [Ciencia](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/science)                                         | **3**  | AlphaFold2, ESMFold, dinámica molecular GROMACS                                                                           |
| 🎮 [Juegos / Streaming](https://docs.clore.ai/guides/guides_v2-es/gaming-y-streaming/gaming-streaming)                          | **1**  | juegos remotos con Sunshine + Moonlight                                                                                   |
| ₿ [Minería de criptomonedas](https://docs.clore.ai/guides/guides_v2-es/cripto-y-mineria/crypto-mining)                          | **1**  | minería CPU/GPU con XMRig                                                                                                 |

## 🔥 ¿Qué hay de nuevo? (marzo de 2026)

### Semana del 30 de marzo de 2026 — 1 nueva guía

* 🔊 **Voxtral TTS** 🆕 — modelo TTS de peso abierto de 4B de Mistral, 9 idiomas, clonación de voz zero-shot a partir de una referencia de 3 s, solo 3 GB de VRAM, Apache 2.0 — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/voxtral-tts)

#### Notas del sector (23–30 de marzo)

* **Seedance 2.0** (ByteDance) — modelo de generación de video de próxima generación, lanzado en CapCut/Dreamina. Solo API, aún no hay pesos autoalojables disponibles.
* **Google Lyria 3 Pro** — modelo de generación de música, disponible a través de Gemini API/Vertex AI. Solo API, sin implementación local.
* **Gemini 3 Deep Think** — modelo de razonamiento puntero de Google disponible para suscriptores Ultra. Solo API.
* **cierre de Sora** — OpenAI cerró oficialmente la app de generación de video Sora.
* **DeepSeek V4** — aún a la espera del lanzamiento oficial de los pesos (se detectaron fragmentos INT8 el 11 de marzo). Guía lista: [deepseek-v4.md](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4)

### Semana del 16 de marzo de 2026 — 3 nuevas guías

* 🤖 **NVIDIA Nemotron 3 Super** 🆕 — 120B MoE / 12B activos, 5× de rendimiento, contexto de 1M, Apache 2.0, creado para IA agentiva — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/nvidia-nemotron-3-super.md)
* 🌐 **Gemini 3.1 Flash Lite** 🆕 — el modelo más barato y rápido de Google (3 de marzo de 2026), API + alternativas de código abierto — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/language-models/gemini-3-1-flash-lite.md)
* 🎬 **Video 4K 360° de CubeComposer** 🆕 — primer modelo en generar de forma nativa video panorámico 4K 360° a partir de material estándar (CVPR 2026) — [guía](https://github.com/defiocean/clore-docs-guides/blob/main/video-generation/cubecomposer-360-video.md)

### También esta semana (9–16 de marzo de 2026)

* **GPT-5.4** — lanzado el 5 de marzo de 2026; uso nativo de computadora (75.0% OSWorld), contexto de 1M, combina el pipeline de codificación GPT-5.3-Codex con razonamiento general. Solo API, sin implementación local.
* **DeepSeek V4** ⏳ — pesos detectados en HuggingFace (fragmentos INT8, 11 de marzo) — lanzamiento inminente de un MoE multimodal de 1T de parámetros. [Guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4) lista cuando se publique.
* **Wan 2.2** — nueva versión del modelo fundacional de generación de video Wan (variante imagen-a-video 12V activa en HuggingFace)

### Nuevo en marzo de 2026 — 6 nuevas categorías, 57 nuevas guías

* 🗄️ **RAG / Bases de datos vectoriales** — 6 guías: [LlamaIndex](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/llamaindex), [RAGFlow](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/ragflow), [ChromaDB](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/chromadb), [Qdrant](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/qdrant), [Milvus](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/milvus), [Weaviate](https://docs.clore.ai/guides/guides_v2-es/rag-y-bases-de-datos-vectoriales/weaviate)
* 🔄 **MLOps** — 4 guías: [MLflow](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/mlflow), [Triton Inference Server](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/triton-inference-server), [BentoML](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/bentoml), [ClearML](https://docs.clore.ai/guides/guides_v2-es/mlops-y-despliegue/clearml)
* ⚡ **GPU para DevOps** — 2 guías: [TensorRT-LLM](https://docs.clore.ai/guides/guides_v2-es/devops-con-gpu/tensorrt-llm), [ONNX Runtime](https://docs.clore.ai/guides/guides_v2-es/devops-con-gpu/onnx-runtime)
* 🔬 **Ciencia** — 3 guías: [AlphaFold2](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/alphafold2), [ESMFold](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/esmfold), [GROMACS](https://docs.clore.ai/guides/guides_v2-es/ciencia-e-investigacion/gromacs) dinámica molecular
* 🎮 **Juegos / Streaming** — [Sunshine + Moonlight](https://docs.clore.ai/guides/guides_v2-es/gaming-y-streaming/sunshine-moonlight) juegos remotos acelerados por GPU
* ₿ **Minería de criptomonedas** — [XMRig](https://docs.clore.ai/guides/guides_v2-es/cripto-y-mineria/xmrig) minería CPU/GPU en Clore.ai

### Últimos modelos añadidos (4 de marzo de 2026)

* **DeepSeek V4** ⏳ — MoE multimodal de \~1T de parámetros, licencia MIT, **lanzamiento inminente (pesos detectados el 11 de marzo)** — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/deepseek-v4)
* **MiniMax Speech 2.6** 🆕 — TTS de latencia ultrabaja para agentes de voz, < 300 ms TTFB — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/minimax-speech)
* **SGLang** 🆕 — RadixAttention para compartir la caché KV, 2–5× de rendimiento frente a vLLM en MoE — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/sglang)
* **TGI** 🆕 — serving de LLM en producción de HuggingFace con Flash Attention 2 + PagedAttention — [guía](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/tgi)
* **LLaMA-Factory** 🆕 — ajusta finamente más de 100 LLM con WebUI, LoRA/QLoRA, RLHF — [guía](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/llama-factory)
* **Fish Speech** 🆕 — clonación de voz zero-shot en más de 8 idiomas a partir de 10–15 s de audio de referencia — [guía](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/fish-speech)
* **Mochi-1** 🆕 — difusión de video de 10B de parámetros, 848×480 a 30 fps, 24 GB de VRAM — [guía](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/mochi-1)

### Añadidos anteriormente (febrero de 2026)

* **Qwen3.5** — MoE de 397B de Alibaba, superó a Claude 4.5 Opus en matemáticas
* **GLM-5** — MoE de 744B de Zhipu AI, licencia MIT, n.º 1 en los rankings de código abierto
* **Ling-2.5-1T** — modelo de un billón de parámetros de Ant Group con atención lineal
* **Kimi K2.5** — MoE de 1T de Moonshot AI, licencia MIT, visual y agentivo
* **Mistral Large 3** — 675B MoE, Apache 2.0, vanguardia en codificación y razonamiento
* **Llama 4 Scout/Maverick** — revolución MoE de Meta, ventana de contexto de 10M
* **Gemma 3** — el 27B de Google que supera a modelos de 405B
* **FLUX.2 Klein** — generación de imágenes en menos de un segundo (< 0.5 s en RTX 4090)
* **HunyuanImage 3.0** — 80B MoE, el modelo de imagen de código abierto más grande
* **ACE-Step 1.5** — generación de canciones completas con menos de 4 GB de VRAM
* **FramePack** — video con IA con solo 6 GB de VRAM
* **Qwen3-TTS** — clonación de voz en más de 10 idiomas a partir de 3 segundos de audio
* **Kani-TTS-2** — TTS ultraligero, solo 3 GB de VRAM
* **DeepSeek-R1** — modelo de razonamiento que iguala a OpenAI o1

### Categorías añadidas anteriormente (febrero de 2026)

* 🤖 **Plataformas y agentes de IA** — 18 guías: Dify, CrewAI, AutoGPT, OpenHands, MetaGPT, n8n, LibreChat, Open Interpreter, SuperAGI, SWE-agent
* 🎵 **Generación de música** — canciones compuestas por IA con voces (ACE-Step)
* 💻 **Herramientas de codificación de IA** — alternativas autoalojadas a Copilot (Aider, TabbyML)
* 🔧 **OpenClaw en Clore** — ejecuta tu asistente de IA 24/7 en GPU alquiladas

## 💰 Precios de GPU (marzo de 2026)

> Datos en vivo del marketplace de Clore.ai, muestreados el 16 de marzo de 2026 (2,592 servidores).

| GPU         | VRAM | Rango de precio spot | Prom./h | Ideal para                                      |
| ----------- | ---- | -------------------- | ------- | ----------------------------------------------- |
| RTX 3060    | 12GB | $0.16–1.00/h         | \~$0.93 | TTS, modelos pequeños, generación de música     |
| RTX 3070    | 8GB  | $0.17–3.33/h         | \~$0.55 | modelos 7B, Whisper, inferencia por lotes       |
| RTX 3080    | 10GB | $0.20–3.50/h         | \~$0.79 | modelos 7B–14B, generación de imágenes          |
| RTX 3090    | 24GB | $0.08–4.00/h         | \~$1.24 | SDXL, modelos 32B, generación de video          |
| RTX 4090    | 24GB | $1.19–6.50/h         | \~$2.44 | FLUX, Llama 4, modelos 35B                      |
| RTX 5070 Ti | 16GB | $0.75–3.00/h         | \~$1.31 | inferencia rápida, LLM de 30B                   |
| RTX 5080    | 16GB | $0.90–9.00/h         | \~$1.86 | FLUX rápido, LLM de 30B                         |
| RTX 5090    | 32GB | $1.72–10.00/h        | \~$3.94 | 70B cuantizado, Nemotron 3 Super, el más rápido |
| A100 80GB   | 80GB | \~$20/h              | \~$20   | 70B FP16, entrenamiento a gran escala           |
| H100 80GB   | 80GB | $5–10/h              | \~$6–8  | modelos de 400B+, producción                    |

*Los pedidos spot son 20–40% más baratos que bajo demanda. La flota RTX 5090 ahora tiene más de 218 tarjetas. La RTX 5070 Ti emergió como una sólida opción de gama media (73 servidores).*

## 🚀 Inicio rápido

¿Nuevo en Clore.ai? → [**Guía de inicio rápido**](https://docs.clore.ai/guides/guides_v2-es/quickstart)

¿Ya sabes lo que necesitas?

| Quiero...                                | Empieza aquí                                                                                                                                                                                                                                                               |
| ---------------------------------------- | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| Chatear con IA localmente                | [Guía de Ollama](https://docs.clore.ai/guides/guides_v2-es/modelos-de-lenguaje/ollama)                                                                                                                                                                                     |
| Generar imágenes                         | [FLUX.2 Klein](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/flux2-klein) o [ComfyUI](https://docs.clore.ai/guides/guides_v2-es/generacion-de-imagenes/comfyui)                                                                                         |
| Generar videos                           | [FramePack](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/framepack) (¡6 GB!) o [Wan2.1](https://docs.clore.ai/guides/guides_v2-es/generacion-de-video/wan-video)                                                                                          |
| Clonar una voz                           | [Voxtral TTS](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/voxtral-tts), [Qwen3-TTS](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/qwen3-tts), o [Zonos](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/zonos-tts)                                 |
| Transcribir audio                        | [WhisperX](https://docs.clore.ai/guides/guides_v2-es/audio-y-voz/whisperx)                                                                                                                                                                                                 |
| Ajustar un modelo                        | [Unsloth](https://docs.clore.ai/guides/guides_v2-es/entrenamiento/unsloth-finetune) (2x más rápido, 70% menos VRAM)                                                                                                                                                        |
| Generar música                           | [ACE-Step](https://docs.clore.ai/guides/guides_v2-es/generacion-de-musica/ace-step) (¡menos de 4 GB de VRAM!)                                                                                                                                                              |
| Autoalojar Copilot                       | [TabbyML](https://docs.clore.ai/guides/guides_v2-es/herramientas-de-codificacion-de-ia/tabby) ($4.50/mes)                                                                                                                                                                  |
| Ejecutar una plataforma de agentes de IA | [Dify](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/dify), [CrewAI](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/crewai), o [OpenHands](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/openhands) |
| Autoalojar una alternativa a ChatGPT     | [LibreChat](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/librechat) o [LobeChat](https://docs.clore.ai/guides/guides_v2-es/plataformas-y-agentes-de-ia/lobechat)                                                                                  |
| Ejecutar asistente de IA 24/7            | [OpenClaw en Clore](https://docs.clore.ai/guides/guides_v2-es/otras-cargas-de-trabajo/openclaw-on-clore)                                                                                                                                                                   |
| Elegir la GPU adecuada                   | [Comparación de GPU](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/gpu-comparison)                                                                                                                                                                              |

## 📖 Documentación y soporte

* **Docs principales**: [docs.clore.ai](https://docs.clore.ai/)
* **Estas guías**: [docs.clore.ai/guides](https://docs.clore.ai/guides/)
* **Marketplace**: [clore.ai/marketplace](https://clore.ai/marketplace)
* **Soporte**: [clore.ai/support](https://clore.ai/support) / <support@clore.ai>
* **Discord**: [discord.com/invite/clore-ai](https://discord.com/invite/clore-ai)
* **Telegram**: [@clorechat](https://t.me/clorechat)
