DeepSeek-V3
Запускайте DeepSeek-V3 с выдающимися способностями к рассуждению на GPU Clore.ai
Почему DeepSeek-V3?
Что нового в DeepSeek-V3-0324
Генерация кода
Математическое рассуждение
Общее рассуждение
Быстрое развертывание на CLORE.AI
Доступ к вашему сервису
Проверьте, что всё работает
Варианты моделей
Модель
Параметры
Активен
Требуемая VRAM
HuggingFace
Требования к аппаратному обеспечению
Полная точность
Модель
Минимум
Рекомендуется
Квантование (AWQ/GPTQ)
Модель
Квантование
VRAM
Установка
Использование vLLM (рекомендуется)
Использование Transformers
Использование Ollama
Использование API
Совместимый с OpenAI API (vLLM)
Потоковая передача (Streaming)
cURL
DeepSeek-V2-Lite (один GPU)
Генерация кода
Математика и рассуждение
Конфигурация с несколькими GPU
8x GPU (Полная модель — V3-0324)
4x GPU (V2.5)
Производительность
Пропускная способность (токенов/сек)
Модель
GPU
Контекст
Токенов/с
Время до первого токена (TTFT)
Модель
Конфигурация
TTFT
Использование памяти
Модель
Точность
Требуемая VRAM
Бенчмарки
DeepSeek-V3-0324 против конкурентов
Бенчмарк
V3-0324
V3 (оригинал)
GPT-4o
Claude 3.5 Sonnet
Docker Compose
Краткое резюме требований к GPU
Случай использования
Рекомендуемая настройка
Стоимость/час
Оценка стоимости
Конфигурация GPU
Почасовая ставка
Дневная ставка
Устранение неполадок
Недостаточно памяти
Медленная загрузка модели
Ошибка trust_remote_code
Много-GPU не работает
DeepSeek против других
Функция
DeepSeek-V3-0324
Llama 3.1 405B
Mixtral 8x22B
Дальнейшие шаги
Последнее обновление
Это было полезно?