DeepSeek-V3

Ejecuta DeepSeek-V3 con razonamiento excepcional en GPUs de Clore.ai

Ejecute DeepSeek-V3, el LLM de código abierto de última generación con capacidades excepcionales de razonamiento en GPUs de CLORE.AI.

circle-check
circle-info

Actualizado: DeepSeek-V3-0324 (marzo de 2024) — La última revisión de DeepSeek-V3 trae mejoras significativas en generación de código, razonamiento matemático y resolución general de problemas. Vea el registro de cambios para más detalles.

¿Por qué DeepSeek-V3?

  • Última generación - Compite con GPT-4o y Claude 3.5 Sonnet

  • 671B MoE - 671B parámetros totales, 37B activos por token (inferencia eficiente)

  • Razonamiento mejorado - DeepSeek-V3-0324 es significativamente mejor en matemáticas y código

  • Eficiente - La arquitectura MoE reduce los costos de cómputo frente a modelos densos

  • Código abierto - Pesos completamente abiertos bajo licencia MIT

  • Contexto largo - Ventana de contexto de 128K tokens

Novedades en DeepSeek-V3-0324

DeepSeek-V3-0324 (revisión de marzo de 2024) introduce mejoras significativas en dominios clave:

Generación de código

  • +8-12% en HumanEval comparado con el V3 original

  • Mejor en bases de código multiarchivo y tareas complejas de refactorización

  • Mejor comprensión de frameworks modernos (FastAPI, Pydantic v2, LangChain v0.3)

  • Más fiable al generar código completo y ejecutable sin omisiones

Razonamiento matemático

  • +5% en MATH-500 benchmark

  • Mejor construcción paso a paso de demostraciones

  • Mayor precisión numérica para problemas de múltiples pasos

  • Mayor capacidad para identificar y corregir errores a mitad de la solución

Razonamiento general

  • Mayor deducción lógica e inferencia causal

  • Mejor en tareas de planificación multi-paso

  • Rendimiento más consistente en casos límite y prompts ambiguos

  • Mejora en el seguimiento de instrucciones en solicitudes complejas con múltiples restricciones

Despliegue rápido en CLORE.AI

Imagen Docker:

Puertos:

Comando (Se requieren múltiples GPUs):

Accediendo a tu servicio

Después del despliegue, encuentra tu http_pub URL en Mis Pedidos:

  1. Ir a Mis Pedidos página

  2. Haz clic en tu pedido

  3. Encuentra la http_pub URL (por ejemplo, abc123.clorecloud.net)

Usa https://TU_HTTP_PUB_URL en lugar de localhost en los ejemplos abajo.

Verificar que funciona

circle-exclamation

Variantes de modelo

Modelo
Parámetros
Activo
VRAM requerida
HuggingFace

Requisitos de hardware

Precisión completa

Modelo
Mínimo
Recomendado

DeepSeek-V3-0324

8x A100 80GB

8x H100 80GB

DeepSeek-V2.5

4x A100 80GB

4x H100 80GB

DeepSeek-V2-Lite

RTX 4090 24GB

A100 40GB

Cuantizado (AWQ/GPTQ)

Modelo
Cuantización
VRAM

DeepSeek-V3-0324

INT4

4x80GB

DeepSeek-V2.5

INT4

2x80GB

DeepSeek-V2-Lite

INT4

8GB

Instalación

Usando vLLM (Recomendado)

Usando Transformers

Usando Ollama

Uso de la API

API compatible con OpenAI (vLLM)

Streaming

cURL

DeepSeek-V2-Lite (GPU única)

Para usuarios con hardware limitado:

Generación de código

DeepSeek-V3-0324 es de primera clase para código:

Tareas avanzadas de código donde V3-0324 destaca:

Matemáticas y razonamiento

Configuración multi-GPU

8x GPU (Modelo completo — V3-0324)

4x GPU (V2.5)

Rendimiento

Rendimiento (tokens/seg)

Modelo
GPUs
Contexto
Tokens/seg

DeepSeek-V3-0324

8x H100

32K

~85

DeepSeek-V3-0324

8x A100 80GB

32K

~52

DeepSeek-V3-0324 INT4

4x A100 80GB

16K

~38

DeepSeek-V2.5

4x A100 80GB

16K

~70

DeepSeek-V2.5

2x A100 80GB

8K

~45

DeepSeek-V2-Lite

RTX 4090

8K

~40

DeepSeek-V2-Lite

RTX 3090

4K

~25

Tiempo hasta el primer token (TTFT)

Modelo
Configuración
TTFT

DeepSeek-V3-0324

8x H100

~750ms

DeepSeek-V3-0324

8x A100

~1100ms

DeepSeek-V2.5

4x A100

~500ms

DeepSeek-V2-Lite

RTX 4090

~150ms

Uso de memoria

Modelo
Precisión
VRAM requerida

DeepSeek-V3-0324

FP16

8x 80GB

DeepSeek-V3-0324

INT4

4x 80GB

DeepSeek-V2.5

FP16

4x 80GB

DeepSeek-V2.5

INT4

2x 80GB

DeepSeek-V2-Lite

FP16

20GB

DeepSeek-V2-Lite

INT4

10GB

Benchmarks

DeepSeek-V3-0324 vs Competencia

Benchmark
V3-0324
V3 (original)
GPT-4o
Claude 3.5 Sonnet

MMLU

88.5%

87.1%

88.7%

88.3%

HumanEval

90.2%

82.6%

90.2%

92.0%

MATH-500

67.1%

61.6%

76.6%

71.1%

GSM8K

92.1%

89.3%

95.8%

96.4%

LiveCodeBench

72.4%

65.9%

71.3%

73.8%

Clasificación en Codeforces

1850

1720

1780

1790

Nota: la mejora en MATH-500 de V3 → V3-0324 es de +5.5 puntos porcentuales.

Docker Compose

Resumen de requisitos de GPU

Caso de uso
Configuración recomendada
Costo/Hora

DeepSeek-V3-0324 completo

8x A100 80GB

~$2.00

DeepSeek-V2.5

4x A100 80GB

~$1.00

Desarrollo/Pruebas

RTX 4090 (V2-Lite)

~$0.10

API de producción

8x H100 80GB

~$3.00

Estimación de costos

Tarifas típicas del mercado de CLORE.AI:

Configuración de GPU
Tarifa por hora
Tarifa diaria

RTX 4090 24GB

~$0.10

~$2.30

A100 40GB

~$0.17

~$4.00

A100 80GB

~$0.25

~$6.00

4x A100 80GB

~$1.00

~$24.00

8x A100 80GB

~$2.00

~$48.00

Los precios varían según el proveedor. Consulta CLORE.AI Marketplacearrow-up-right para las tarifas actuales.

Ahorra dinero:

  • Usa Spot mercado para desarrollo (a menudo 30-50% más barato)

  • Paga con CLORE tokens

  • Use DeepSeek-V2-Lite para pruebas antes de escalar

Solución de problemas

Memoria insuficiente

Descarga lenta del modelo

Error trust_remote_code

Multi-GPU no funciona

DeepSeek vs Otros

Función
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B

Parámetros

671B (37B activos)

405B

176B (44B activos)

Contexto

128K

128K

64K

Código

Excelente

Genial

Bueno

Matemáticas

Excelente

Bueno

Bueno

VRAM mínima

8x80GB

8x80GB

2x80GB

Licencia

MIT

Llama 3.1

Apache 2.0

Use DeepSeek-V3 cuando:

  • Se necesite el mejor rendimiento en razonamiento

  • La generación de código sea el uso principal

  • Las tareas de matemáticas/lógica sean importantes

  • Disponga de una configuración multi-GPU

  • Desee pesos totalmente de código abierto (licencia MIT)

Próximos pasos

Última actualización

¿Te fue útil?