Inicio rápido
No se necesita experiencia previa en GPU o IA. Esta guía te lleva de cero a ejecutar IA en 5 minutos.
Paso 1: Crear cuenta y agregar fondos
Ir a clore.ai → Regístrate
Verifica tu correo electrónico
Ir a Cuenta → Depósito
Agregar fondos vía CLORE, BTC, USDT, o USDC (mínimo ~ $5 para empezar)
Paso 2: Elegir una GPU
Ir a Mercado y elegir según tu tarea:
Chatear con IA (modelos 7B)
RTX 3060 12GB
~$0.15
Chatear con IA (modelos 32B)
RTX 4090 24GB
~$0.50
Generar imágenes (FLUX)
RTX 3090 24GB
~$0.30
Generar videos
RTX 4090 24GB
~$0.50
Generar música
Cualquier GPU 4GB+
~$0.15
Clonación de voz / TTS
RTX 3060 6GB+
~$0.15
Transcribir audio
RTX 3060 8GB+
~$0.15
Ajustar finamente un modelo
RTX 4090 24GB
~$0.50
Ejecutar modelos 70B+
A100 80GB
~$2.00
Importante — verifica más que solo la GPU.
RAM: 16GB+ mínimo para la mayoría de cargas de trabajo de IA
Red: 500Mbps+ recomendado (los modelos se descargan desde HuggingFace)
Disco: 50GB+ de espacio libre para almacenar modelos
Guía rápida de GPU
RTX 3060
12GB
$0.15–0.30/día
TTS, música, modelos pequeños
RTX 3090
24GB
$0.30–1.00/día
Generación de imágenes, modelos 32B
RTX 4090
24GB
$0.50–2.00/día
Todo hasta 35B, inferencia rápida
RTX 5090
32GB
$1.50–3.00/día
70B cuantizado, más rápido
A100 80GB
80GB
$2.00–4.00/día
70B FP16, entrenamiento serio
H100 80GB
80GB
$3.00–6.00/día
Modelos MoE 400B+
Paso 3: Desplegar
Hacer clic Alquilar en tu servidor elegido, luego configurar:
Tipo de orden: Bajo demanda (garantizado) o Spot (30–50% más barato, puede ser interrumpido)
Imagen Docker: Ver recetas abajo
Puertos: Siempre incluir
22/tcp(SSH) + el puerto de tu aplicaciónEntorno: Agregar las claves API necesarias
🚀 Recetas con un clic
Chatear con IA (Ollama + Open WebUI)
La forma más fácil de ejecutar IA local — interfaz tipo ChatGPT con cualquier modelo abierto.
Después de desplegar, abre la URL HTTP → crea cuenta → elige un modelo (Llama 4 Scout, Gemma 3, Qwen3.5) → ¡chatea!
Generación de imágenes (ComfyUI)
Flujo de trabajo basado en nodos para FLUX, Stable Diffusion y más.
Generación de imágenes (Stable Diffusion WebUI)
Interfaz clásica para Stable Diffusion, SDXL y SD 3.5.
Servidor API LLM (vLLM)
Servicio de grado de producción con API compatible con OpenAI.
Generación de música (ACE-Step)
Genera canciones completas con voces — ¡funciona en cualquier GPU de 4GB+!
Conéctate por SSH, luego:
Paso 4: Conectar
Después de que tu orden comience:
Ir a Mis Pedidos → encuentra tu orden activa
UI web: Haz clic en la URL HTTP (p. ej.,
https://xxx.clorecloud.net)SSH:
ssh -p <port> root@<proxy-address>
El primer lanzamiento toma 5–20 minutos — el servidor descarga modelos de IA desde HuggingFace. Los errores HTTP 502 durante este tiempo son normales. Espera y actualiza.
Ollama + Open WebUI
3–5 min
ComfyUI
10–15 min
vLLM
5–15 min (depende del tamaño del modelo)
SD WebUI
10–20 min
Paso 5: Comenzar a crear
Una vez que tu servicio esté en funcionamiento, explora las guías para tu caso de uso específico:
🤖 Modelos de lenguaje (Chat, Código, Razonamiento)
Ollama — gestión de modelos más sencilla
Llama 4 Scout — lo último de Meta, contexto de 10M
Gemma 3 — el 27B de Google que supera a modelos de 405B
Qwen3.5 — superó a Claude 4.5 en matemáticas (¡feb 2026!)
DeepSeek-R1 — razonamiento en cadena de pensamiento
vLLM — servicio API para producción
🎨 Generación de imágenes
FLUX.2 Klein — < 0.5 s por imagen!
ComfyUI — flujos de trabajo basados en nodos
FLUX.1 — mayor calidad con LoRA + ControlNet
Stable Diffusion 3.5 — mejor renderizado de texto
🎬 Generación de video
FramePack — ¡solo se necesitan 6GB de VRAM!
Wan2.1 — T2V + I2V de alta calidad
LTX-2 — video CON audio
CogVideoX — modelo de video de Zhipu AI
🔊 Audio y voz
Qwen3-TTS — clonación de voz, 10+ idiomas
WhisperX — transcripción + diarización de hablantes
Dia TTS — diálogo multi-voz
Kokoro — TTS pequeño, solo 2GB de VRAM
🎵 Música
ACE-Step — canciones completas en < 4GB de VRAM
💻 Programación con IA
🧠 Entrenamiento
💡 Consejos para principiantes
Comienza con Ollama — es la forma más fácil de probar IA localmente
RTX 4090 es el punto ideal — maneja el 90% de los casos de uso por $0.50–2/día
Usa órdenes Spot para experimentos — 30–50% más baratas
Usa On-Demand para trabajo importante — garantizado, sin interrupciones
Descarga tus resultados antes de que termine la orden — los archivos se eliminan después
Paga con el token CLORE — a menudo mejores tarifas que con stablecoins
Revisa RAM y red — la baja RAM es la causa #1 de fallos
Solución de problemas
HTTP 502 por mucho tiempo
Espera 10–20 min para el primer inicio; verifica RAM ≥ 16GB
El servicio no iniciará
RAM demasiado baja (necesita 16GB+) o VRAM insuficiente para el modelo
Descarga lenta del modelo
Normal en la primera ejecución; se prefieren servidores de 500Mbps+
CUDA fuera de memoria
Usa un modelo más pequeño o una GPU más grande; prueba versiones cuantizadas
No se puede conectar por SSH
Verifica que el puerto esté 22/tcp en la configuración; espera a que el servidor arranque completamente
¿Necesitas ayuda?
Última actualización
¿Te fue útil?