Inicio rápido

circle-check

Paso 1: Crear cuenta y agregar fondos

  1. Ir a clore.aiarrow-up-rightRegístrate

  2. Verifica tu correo electrónico

  3. Ir a CuentaDepósito

  4. Agregar fondos vía CLORE, BTC, USDT, o USDC (mínimo ~ $5 para empezar)

Paso 2: Elegir una GPU

Ir a Mercadoarrow-up-right y elegir según tu tarea:

Qué quiero hacer
GPU mínima
Presupuesto/día

Chatear con IA (modelos 7B)

RTX 3060 12GB

~$0.15

Chatear con IA (modelos 32B)

RTX 4090 24GB

~$0.50

Generar imágenes (FLUX)

RTX 3090 24GB

~$0.30

Generar videos

RTX 4090 24GB

~$0.50

Generar música

Cualquier GPU 4GB+

~$0.15

Clonación de voz / TTS

RTX 3060 6GB+

~$0.15

Transcribir audio

RTX 3060 8GB+

~$0.15

Ajustar finamente un modelo

RTX 4090 24GB

~$0.50

Ejecutar modelos 70B+

A100 80GB

~$2.00

triangle-exclamation

Guía rápida de GPU

GPU
VRAM
Precio
Punto óptimo para

RTX 3060

12GB

$0.15–0.30/día

TTS, música, modelos pequeños

RTX 3090

24GB

$0.30–1.00/día

Generación de imágenes, modelos 32B

RTX 4090

24GB

$0.50–2.00/día

Todo hasta 35B, inferencia rápida

RTX 5090

32GB

$1.50–3.00/día

70B cuantizado, más rápido

A100 80GB

80GB

$2.00–4.00/día

70B FP16, entrenamiento serio

H100 80GB

80GB

$3.00–6.00/día

Modelos MoE 400B+

Paso 3: Desplegar

Hacer clic Alquilar en tu servidor elegido, luego configurar:

  • Tipo de orden: Bajo demanda (garantizado) o Spot (30–50% más barato, puede ser interrumpido)

  • Imagen Docker: Ver recetas abajo

  • Puertos: Siempre incluir 22/tcp (SSH) + el puerto de tu aplicación

  • Entorno: Agregar las claves API necesarias

🚀 Recetas con un clic

Chatear con IA (Ollama + Open WebUI)

La forma más fácil de ejecutar IA local — interfaz tipo ChatGPT con cualquier modelo abierto.

Después de desplegar, abre la URL HTTP → crea cuenta → elige un modelo (Llama 4 Scout, Gemma 3, Qwen3.5) → ¡chatea!

Generación de imágenes (ComfyUI)

Flujo de trabajo basado en nodos para FLUX, Stable Diffusion y más.

Generación de imágenes (Stable Diffusion WebUI)

Interfaz clásica para Stable Diffusion, SDXL y SD 3.5.

Servidor API LLM (vLLM)

Servicio de grado de producción con API compatible con OpenAI.

Generación de música (ACE-Step)

Genera canciones completas con voces — ¡funciona en cualquier GPU de 4GB+!

Conéctate por SSH, luego:

Paso 4: Conectar

Después de que tu orden comience:

  1. Ir a Mis Pedidos → encuentra tu orden activa

  2. UI web: Haz clic en la URL HTTP (p. ej., https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
Desplegar
Inicio típico

Ollama + Open WebUI

3–5 min

ComfyUI

10–15 min

vLLM

5–15 min (depende del tamaño del modelo)

SD WebUI

10–20 min

Paso 5: Comenzar a crear

Una vez que tu servicio esté en funcionamiento, explora las guías para tu caso de uso específico:

🤖 Modelos de lenguaje (Chat, Código, Razonamiento)

  • Ollama — gestión de modelos más sencilla

  • Llama 4 Scout — lo último de Meta, contexto de 10M

  • Gemma 3 — el 27B de Google que supera a modelos de 405B

  • Qwen3.5 — superó a Claude 4.5 en matemáticas (¡feb 2026!)

  • DeepSeek-R1 — razonamiento en cadena de pensamiento

  • vLLM — servicio API para producción

🎨 Generación de imágenes

🎬 Generación de video

  • FramePack — ¡solo se necesitan 6GB de VRAM!

  • Wan2.1 — T2V + I2V de alta calidad

  • LTX-2 — video CON audio

  • CogVideoX — modelo de video de Zhipu AI

🔊 Audio y voz

  • Qwen3-TTS — clonación de voz, 10+ idiomas

  • WhisperX — transcripción + diarización de hablantes

  • Dia TTS — diálogo multi-voz

  • Kokoro — TTS pequeño, solo 2GB de VRAM

🎵 Música

  • ACE-Step — canciones completas en < 4GB de VRAM

💻 Programación con IA

  • TabbyML — Copilot autoalojado por $4.50/mes

  • Aider — asistente de programación por terminal con IA

🧠 Entrenamiento

  • Unsloth — 2x más rápido, 70% menos VRAM

  • Axolotl — ajuste fino basado en YAML

💡 Consejos para principiantes

  1. Comienza con Ollama — es la forma más fácil de probar IA localmente

  2. RTX 4090 es el punto ideal — maneja el 90% de los casos de uso por $0.50–2/día

  3. Usa órdenes Spot para experimentos — 30–50% más baratas

  4. Usa On-Demand para trabajo importante — garantizado, sin interrupciones

  5. Descarga tus resultados antes de que termine la orden — los archivos se eliminan después

  6. Paga con el token CLORE — a menudo mejores tarifas que con stablecoins

  7. Revisa RAM y red — la baja RAM es la causa #1 de fallos

Solución de problemas

Problema
Solución

HTTP 502 por mucho tiempo

Espera 10–20 min para el primer inicio; verifica RAM ≥ 16GB

El servicio no iniciará

RAM demasiado baja (necesita 16GB+) o VRAM insuficiente para el modelo

Descarga lenta del modelo

Normal en la primera ejecución; se prefieren servidores de 500Mbps+

CUDA fuera de memoria

Usa un modelo más pequeño o una GPU más grande; prueba versiones cuantizadas

No se puede conectar por SSH

Verifica que el puerto esté 22/tcp en la configuración; espera a que el servidor arranque completamente

¿Necesitas ayuda?

Última actualización

¿Te fue útil?