# Comparación de GPU

Comparación completa de GPUs disponibles en CLORE.AI para cargas de trabajo de IA.

{% hint style="success" %}
Encuentra la GPU adecuada para tu tarea en [Mercado de CLORE.AI](https://clore.ai/marketplace).
{% endhint %}

## Recomendación rápida

| Tu tarea                        | Selección por presupuesto | Mejor valor   | Rendimiento máximo |
| ------------------------------- | ------------------------- | ------------- | ------------------ |
| Chat con IA (7B)                | RTX 3060 12GB             | RTX 3090 24GB | RTX 5090 32GB      |
| Chat con IA (70B)               | RTX 3090 24GB             | RTX 5090 32GB | A100 80GB          |
| Generación de imágenes (SD 1.5) | RTX 3060 12GB             | RTX 3090 24GB | RTX 5090 32GB      |
| Generación de imágenes (SDXL)   | RTX 3090 24GB             | RTX 4090 24GB | RTX 5090 32GB      |
| Generación de imágenes (FLUX)   | RTX 3090 24GB             | RTX 5090 32GB | A100 80GB          |
| Generación de video             | RTX 4090 24GB             | RTX 5090 32GB | A100 80GB          |
| Entrenamiento de modelos        | A100 40GB                 | A100 80GB     | H100 80GB          |

## GPUs de consumo

### NVIDIA RTX 3060 12GB

**Mejor para:** IA económica, SD 1.5, LLMs pequeños

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 12GB GDDR6   |
| Ancho de banda de memoria | 360 GB/s     |
| Rendimiento FP16          | 12.7 TFLOPS  |
| Tensor Cores              | 112 (3ª gen) |
| TDP                       | 170W         |
| \~Precio/hora             | $0.02-0.04   |

**Capacidades:**

* ✅ Ollama con modelos 7B (T4)
* ✅ Stable Diffusion 1.5 (512x512)
* ✅ SDXL (768x768, lento)
* ⚠️ FLUX schnell (con descarga a CPU)
* ❌ Modelos grandes (>13B)
* ❌ Generación de video

***

### NVIDIA RTX 3070/3070 Ti 8GB

**Mejor para:** SD 1.5, tareas ligeras

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 8GB GDDR6X   |
| Ancho de banda de memoria | 448-608 GB/s |
| Rendimiento FP16          | 20.3 TFLOPS  |
| Tensor Cores              | 184 (3ª gen) |
| TDP                       | 220-290W     |
| \~Precio/hora             | $0.02-0.04   |

**Capacidades:**

* ✅ Ollama con modelos 7B (T4)
* ✅ Stable Diffusion 1.5 (512x512)
* ⚠️ SDXL (solo baja resolución)
* ❌ FLUX (VRAM insuficiente)
* ❌ Modelos >7B
* ❌ Generación de video

***

### NVIDIA RTX 3080/3080 Ti 10-12GB

**Mejor para:** Tareas generales de IA, buen equilibrio

| Especificación            | Valor            |
| ------------------------- | ---------------- |
| VRAM                      | 10-12GB GDDR6X   |
| Ancho de banda de memoria | 760-912 GB/s     |
| Rendimiento FP16          | 29.8-34.1 TFLOPS |
| Tensor Cores              | 272-320 (3ª gen) |
| TDP                       | 320-350W         |
| \~Precio/hora             | $0.04-0.06       |

**Capacidades:**

* ✅ Ollama con modelos 13B
* ✅ Stable Diffusion 1.5/2.1
* ✅ SDXL (1024x1024)
* ⚠️ FLUX schnell (con offload)
* ❌ Modelos grandes (>13B)
* ❌ Generación de video

***

### NVIDIA RTX 3090/3090 Ti 24GB

**Mejor para:** SDXL, LLMs 13B-30B, ControlNet

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 24GB GDDR6X  |
| Ancho de banda de memoria | 936 GB/s     |
| Rendimiento FP16          | 35.6 TFLOPS  |
| Tensor Cores              | 328 (3ª gen) |
| TDP                       | 350-450W     |
| \~Precio/hora             | $0.05-0.08   |

**Capacidades:**

* ✅ Ollama con modelos 30B
* ✅ vLLM con modelos 13B
* ✅ Todos los modelos de Stable Diffusion
* ✅ SDXL + ControlNet
* ✅ FLUX schnell (1024x1024)
* ⚠️ FLUX dev (con offload)
* ⚠️ Video (clips cortos)

***

### NVIDIA RTX 4070 Ti 12GB

**Mejor para:** SD 1.5 rápido, inferencia eficiente

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 12GB GDDR6X  |
| Ancho de banda de memoria | 504 GB/s     |
| Rendimiento FP16          | 40.1 TFLOPS  |
| Tensor Cores              | 184 (4ª gen) |
| TDP                       | 285W         |
| \~Precio/hora             | $0.04-0.06   |

**Capacidades:**

* ✅ Ollama con modelos 7B (rápido)
* ✅ Stable Diffusion 1.5 (muy rápido)
* ✅ SDXL (768x768)
* ⚠️ FLUX schnell (resolución limitada)
* ❌ Modelos grandes (>13B)
* ❌ Generación de video

***

### NVIDIA RTX 4080 16GB

**Mejor para:** SDXL para producción, LLMs 13B

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 16GB GDDR6X  |
| Ancho de banda de memoria | 717 GB/s     |
| Rendimiento FP16          | 48.7 TFLOPS  |
| Tensor Cores              | 304 (4ª gen) |
| TDP                       | 320W         |
| \~Precio/hora             | $0.06-0.09   |

**Capacidades:**

* ✅ Ollama con modelos 13B (rápido)
* ✅ vLLM con modelos 7B
* ✅ Todos los modelos de Stable Diffusion
* ✅ SDXL + ControlNet
* ✅ FLUX schnell (1024x1024)
* ⚠️ FLUX dev (limitado)
* ⚠️ Clips de video cortos

***

### NVIDIA RTX 4090 24GB

**Mejor para:** Rendimiento consumidor de gama alta, FLUX, video

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 24GB GDDR6X  |
| Ancho de banda de memoria | 1008 GB/s    |
| Rendimiento FP16          | 82.6 TFLOPS  |
| Tensor Cores              | 512 (4ª gen) |
| TDP                       | 450W         |
| \~Precio/hora             | $0.08-0.12   |

**Capacidades:**

* ✅ Ollama con modelos 30B (rápido)
* ✅ vLLM con modelos 13B
* ✅ Todos los modelos de generación de imágenes
* ✅ FLUX dev (1024x1024)
* ✅ Generación de video (corto)
* ✅ AnimateDiff
* ⚠️ Modelos 70B (solo T4)

***

### NVIDIA RTX 5080 16GB *(Nuevo — Feb 2025)*

**Mejor para:** SDXL/FLUX rápido, LLMs 13B-30B, gama media de alto rendimiento

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 16GB GDDR7   |
| Ancho de banda de memoria | 960 GB/s     |
| Rendimiento FP16          | \~80 TFLOPS  |
| Tensor Cores              | 336 (5ª gen) |
| TDP                       | 360W         |
| \~Precio Clore.ai/hora    | $1.50-2.00   |

**Capacidades:**

* ✅ Ollama con modelos 13B (rápido)
* ✅ vLLM con modelos 13B
* ✅ Todos los modelos de Stable Diffusion
* ✅ SDXL + ControlNet (muy rápido)
* ✅ FLUX schnell/dev (1024x1024)
* ✅ Clips de video cortos
* ⚠️ Modelos 30B (solo T4)
* ❌ Modelos 70B

***

### NVIDIA RTX 5090 32GB *(Tope de gama — Feb 2025)*

**Mejor para:** Rendimiento máximo de consumo, modelos 70B, generación de video en alta resolución

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 32GB GDDR7   |
| Ancho de banda de memoria | 1792 GB/s    |
| Rendimiento FP16          | \~120 TFLOPS |
| Tensor Cores              | 680 (5ª gen) |
| TDP                       | 575W         |
| \~Precio Clore.ai/hora    | $3.00-4.00   |

**Capacidades:**

* ✅ Ollama con modelos 70B (T4, rápido)
* ✅ vLLM con modelos 30B
* ✅ Todos los modelos de generación de imágenes
* ✅ FLUX dev (1536x1536)
* ✅ Generación de video (clips más largos)
* ✅ AnimateDiff + ControlNet
* ✅ Entrenamiento de modelos (LoRA, fine-tunes pequeños)
* ✅ DeepSeek-R1 32B distil (FP16)

## GPUs profesionales/para centros de datos

### NVIDIA A100 40GB

**Mejor para:** LLMs de producción, entrenamiento, modelos grandes

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 40GB HBM2e   |
| Ancho de banda de memoria | 1555 GB/s    |
| Rendimiento FP16          | 77.97 TFLOPS |
| Tensor Cores              | 432 (3ª gen) |
| TDP                       | 400W         |
| \~Precio/hora             | $0.15-0.20   |

**Capacidades:**

* ✅ Ollama con modelos 70B (T4)
* ✅ vLLM para serving en producción
* ✅ Toda la generación de imágenes
* ✅ FLUX dev (alta calidad)
* ✅ Generación de video
* ✅ Fine-tuning de modelos
* ⚠️ 70B en FP16 (ajustado)

***

### NVIDIA A100 80GB

**Mejor para:** Modelos 70B+, video, cargas de trabajo de producción

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 80GB HBM2e   |
| Ancho de banda de memoria | 2039 GB/s    |
| Rendimiento FP16          | 77.97 TFLOPS |
| Tensor Cores              | 432 (3ª gen) |
| TDP                       | 400W         |
| \~Precio/hora             | $0.20-0.30   |

**Capacidades:**

* ✅ Todos los LLMs hasta 70B (FP16)
* ✅ vLLM para serving de alto rendimiento
* ✅ Toda la generación de imágenes
* ✅ Generación de video largo
* ✅ Entrenamiento de modelos
* ✅ DeepSeek-V3 (parcial)
* ⚠️ Modelos 100B+

***

### NVIDIA H100 80GB

**Mejor para:** Rendimiento máximo, modelos más grandes

| Especificación            | Valor        |
| ------------------------- | ------------ |
| VRAM                      | 80GB HBM3    |
| Ancho de banda de memoria | 3350 GB/s    |
| Rendimiento FP16          | 267 TFLOPS   |
| Tensor Cores              | 528 (4ª gen) |
| TDP                       | 700W         |
| \~Precio/hora             | $0.40-0.60   |

**Capacidades:**

* ✅ Todos los modelos con máxima velocidad
* ✅ Modelos de 100B+ parámetros
* ✅ Serving multi-modelo
* ✅ Entrenamiento a gran escala
* ✅ Generación de video en tiempo real
* ✅ DeepSeek-V3 (671B)

## Comparaciones de rendimiento

### Inferencia LLM (tokens/segundo)

| GPU           | Llama 3 8B | Llama 3 70B | Mixtral 8x7B | Clore.ai $/hr |
| ------------- | ---------- | ----------- | ------------ | ------------- |
| RTX 3060 12GB | 25         | -           | -            | $0.02-0.04    |
| RTX 3090 24GB | 45         | 8\*         | 20\*         | $0.15-0.25    |
| RTX 4090 24GB | 80         | 15\*        | 35\*         | $0.35-0.55    |
| RTX 5080 16GB | 95         | -           | 40\*         | $1.50-2.00    |
| RTX 5090 32GB | 150        | 30\*        | 65\*         | $3.00-4.00    |
| A100 40GB     | 100        | 25          | 45           | $0.80-1.20    |
| A100 80GB     | 110        | 40          | 55           | $1.20-1.80    |
| H100 80GB     | 180        | 70          | 90           | $2.50-3.50    |

\*Con cuantización (Q4/Q8)

### Velocidad de generación de imágenes

| GPU           | SD 1.5 (512) | SDXL (1024) | FLUX schnell | Clore.ai $/hr |
| ------------- | ------------ | ----------- | ------------ | ------------- |
| RTX 3060 12GB | 4 seg        | 15 seg      | 25 seg\*     | $0.02-0.04    |
| RTX 3090 24GB | 2 seg        | 7 seg       | 12 seg       | $0.15-0.25    |
| RTX 4090 24GB | 1 seg        | 3 seg       | 5 seg        | $0.35-0.55    |
| RTX 5080 16GB | 0.8 seg      | 2.5 seg     | 4 seg        | $1.50-2.00    |
| RTX 5090 32GB | 0.6 seg      | 1.8 seg     | 3 seg        | $3.00-4.00    |
| A100 40GB     | 1.5 seg      | 4 seg       | 6 seg        | $0.80-1.20    |
| A100 80GB     | 1.5 seg      | 4 seg       | 5 seg        | $1.20-1.80    |

\*Con descarga a CPU, resolución menor

### Generación de video (clip de 5 seg)

| GPU           | SVD     | Wan2.1  | Hunyuan |
| ------------- | ------- | ------- | ------- |
| RTX 3090 24GB | 3 min   | 5 min\* | -       |
| RTX 4090 24GB | 1.5 min | 3 min   | 8 min\* |
| RTX 5090 32GB | 1 min   | 2 min   | 5 min   |
| A100 40GB     | 1 min   | 2 min   | 5 min   |
| A100 80GB     | 45 seg  | 1.5 min | 3 min   |

\*Resolución limitada

## Relación precio/rendimiento

### Mejor valor por tarea

**Chat/LLM (modelos 7B-13B):**

1. 🥇 RTX 3090 24GB - Mejor precio/rendimiento
2. 🥈 RTX 3060 12GB - Menor coste
3. 🥉 RTX 4090 24GB - Más rápido

**Generación de imágenes (SDXL/FLUX):**

1. 🥇 RTX 3090 24GB - Gran equilibrio
2. 🥈 RTX 4090 24GB - 2x más rápido
3. 🥉 A100 40GB - Estabilidad para producción

**Modelos grandes (70B+):**

1. 🥇 A100 40GB - Mejor valor para 70B
2. 🥈 A100 80GB - Precisión completa
3. 🥉 RTX 4090 24GB - Opción económica (solo T4)

**Generación de video:**

1. 🥇 A100 40GB - Buen equilibrio
2. 🥈 RTX 4090 24GB - Opción de consumo
3. 🥉 A100 80GB - Clips más largos

**Entrenamiento de modelos:**

1. 🥇 A100 40GB - Elección estándar
2. 🥈 A100 80GB - Modelos grandes
3. 🥉 RTX 4090 24GB - Modelos pequeños/LoRA

## Configuraciones multi-GPU

Algunas tareas se benefician de múltiples GPUs:

| Configuración | Caso de uso                    | VRAM total |
| ------------- | ------------------------------ | ---------- |
| 2x RTX 3090   | Inferencia 70B                 | 48GB       |
| 2x RTX 4090   | 70B rápido, entrenamiento      | 48GB       |
| 2x RTX 5090   | 70B FP16, entrenamiento rápido | 64GB       |
| 4x RTX 5090   | Modelos 100B+                  | 128GB      |
| 4x A100 40GB  | Modelos 100B+                  | 160GB      |
| 8x A100 80GB  | DeepSeek-V3, Llama 405B        | 640GB      |

## Eligiendo tu GPU

### Diagrama de decisión

```
¿Cuál es tu tarea principal?
│
├─ Chat/LLM
│  ├─ ¿Tamaño del modelo?
│  │  ├─ ≤7B → RTX 3060 ($0.15–0.30/día)
│  │  ├─ 7B-30B → RTX 3090 ($0.30–1.00/día)
│  │  ├─ 30B-70B → A100 40GB ($1.50–3.00/día)
│  │  └─ 70B+ → A100 80GB ($2.00–4.00/día)
│
├─ Generación de imágenes
│  ├─ ¿Modelo?
│  │  ├─ SD 1.5 → RTX 3060 ($0.15–0.30/día)
│  │  ├─ SDXL → RTX 3090 ($0.30–1.00/día)
│  │  └─ FLUX → RTX 4090 ($0.50–2.00/día)
│
├─ Generación de video
│  ├─ ¿Duración?
│  │  ├─ Corto (2-5 seg) → RTX 4090 ($0.50–2.00/día)
│  │  └─ Más largo → A100 40GB+ ($1.50–3.00+/día)
│
└─ Entrenamiento
   ├─ LoRA/pequeño → RTX 4090 ($0.50–2.00/día)
   └─ Fine-tune completo → A100 40GB+ ($1.50–3.00+/día)
```

## Consejos para ahorrar dinero

1. **Usa órdenes Spot** - 30-50% más barato que bajo demanda
2. **Comienza pequeño** - Prueba primero en GPUs más baratas
3. **Cuantiza modelos** - Q4/Q8 permite ajustar modelos grandes en menos VRAM
4. **Procesamiento por lotes** - Procesa múltiples solicitudes a la vez
5. **Horas fuera de pico** - Mejor disponibilidad y a veces precios más bajos

> 📚 Ver también: [Top 10 GPUs más baratas para entrenamiento de IA en 2025](https://blog.clore.ai/top-10-cheapest-gpus-for-ai-training/) | [Mejor GPU para entrenamiento de IA — Guía detallada](https://blog.clore.ai/best-gpu-for-ai-training/)

## Próximos pasos

* [Matriz de compatibilidad de modelos](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/model-compatibility) - Qué modelos funcionan en qué GPUs
* [Catálogo de imágenes Docker](https://docs.clore.ai/guides/guides_v2-es/primeros-pasos/docker-images) - Imágenes listas para usar
* [Guía de inicio rápido](https://docs.clore.ai/guides/guides_v2-es/quickstart) - Comienza en 5 minutos
