DeepSeek-V3
Ejecuta DeepSeek-V3 con razonamiento excepcional en GPUs de Clore.ai
¿Por qué DeepSeek-V3?
Novedades en DeepSeek-V3-0324
Generación de código
Razonamiento matemático
Razonamiento general
Despliegue rápido en CLORE.AI
Accediendo a tu servicio
Verificar que funciona
Variantes de modelo
Modelo
Parámetros
Activo
VRAM requerida
HuggingFace
Requisitos de hardware
Precisión completa
Modelo
Mínimo
Recomendado
Cuantizado (AWQ/GPTQ)
Modelo
Cuantización
VRAM
Instalación
Usando vLLM (Recomendado)
Usando Transformers
Usando Ollama
Uso de la API
API compatible con OpenAI (vLLM)
Streaming
cURL
DeepSeek-V2-Lite (GPU única)
Generación de código
Matemáticas y razonamiento
Configuración multi-GPU
8x GPU (Modelo completo — V3-0324)
4x GPU (V2.5)
Rendimiento
Rendimiento (tokens/seg)
Modelo
GPUs
Contexto
Tokens/seg
Tiempo hasta el primer token (TTFT)
Modelo
Configuración
TTFT
Uso de memoria
Modelo
Precisión
VRAM requerida
Benchmarks
DeepSeek-V3-0324 vs Competencia
Benchmark
V3-0324
V3 (original)
GPT-4o
Claude 3.5 Sonnet
Docker Compose
Resumen de requisitos de GPU
Caso de uso
Configuración recomendada
Costo/Hora
Estimación de costos
Configuración de GPU
Tarifa por hora
Tarifa diaria
Solución de problemas
Memoria insuficiente
Descarga lenta del modelo
Error trust_remote_code
Multi-GPU no funciona
DeepSeek vs Otros
Función
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B
Próximos pasos
Última actualización
¿Te fue útil?