Быстрый старт
Не требуется предшествующий опыт с GPU или ИИ. Это руководство проведет вас от нуля до запуска ИИ за 5 минут.
Шаг 1: Создать аккаунт и пополнить средства
Перейдите на clore.ai → Зарегистрироваться
Подтвердите свою электронную почту
Перейдите на Аккаунт → Пополнение
Добавьте средства через CLORE, BTC, USDT, или USDC (минимум ~5$ для начала)
Шаг 2: Выберите GPU
Перейдите в Маркетплейс и выбирайте в зависимости от вашей задачи:
Чат с ИИ (модели 7B)
RTX 3060 12GB
~$0.15
Чат с ИИ (модели 32B)
RTX 4090 24GB
~$0.50
Генерация изображений (FLUX)
RTX 3090 24GB
~$0.30
Генерация видео
RTX 4090 24GB
~$0.50
Генерация музыки
Любой GPU 4GB+
~$0.15
Клонирование голоса / TTS
RTX 3060 6GB+
~$0.15
Транскрибировать аудио
RTX 3060 8GB+
~$0.15
Тонкая настройка модели
RTX 4090 24GB
~$0.50
Запуск моделей 70B+
A100 80GB
~$2.00
Важно — проверьте не только GPU!
ОЗУ: Минимум 16GB+ для большинства задач ИИ
Сеть: Рекомендуется 500Mbps+ (модели скачиваются с HuggingFace)
Диск: 50GB+ свободного места для хранения моделей
Краткое руководство по GPU
RTX 3060
12GB
$0.15–0.30/день
TTS, музыка, маленькие модели
RTX 3090
24GB
$0.30–1.00/день
Генерация изображений, модели 32B
RTX 4090
24GB
$0.50–2.00/день
Все до 35B, быстрая инференция
RTX 5090
32GB
$1.50–3.00/день
Квантизованные 70B, самый быстрый
A100 80GB
80GB
$2.00–4.00/день
70B FP16, серьезное обучение
H100 80GB
80GB
$3.00–6.00/день
Модели MoE 400B+
Шаг 3: Развертывание
Нажмите Арендовать на выбранном сервере, затем настройте:
Тип заказа: On-Demand (гарантированный) или Spot (на 30–50% дешевле, может быть прерван)
Docker-образ: Смотрите рецепты ниже
Порты: Всегда указывайте
22/tcp(SSH) + порт вашего приложенияОкружение: Добавьте любые необходимые API-ключи
🚀 Рецепты в один клик
Чат с ИИ (Ollama + Open WebUI)
Самый простой способ запустить локальный ИИ — интерфейс, похожий на ChatGPT, с любой открытой моделью.
После развертывания откройте HTTP-URL → создайте аккаунт → выберите модель (Llama 4 Scout, Gemma 3, Qwen3.5) → общайтесь!
Генерация изображений (ComfyUI)
Поток работы на основе узлов для FLUX, Stable Diffusion и других.
Генерация изображений (Stable Diffusion WebUI)
Классический интерфейс для Stable Diffusion, SDXL и SD 3.5.
LLM API сервер (vLLM)
Сервинг уровня продакшн с API совместимым с OpenAI.
Генерация музыки (ACE-Step)
Генерируйте полные песни с вокалом — работает на любом GPU с 4GB+!
Подключитесь по SSH, затем:
Шаг 4: Подключение
После запуска вашего заказа:
Перейдите на Мои заказы → найдите ваш активный заказ
Веб-интерфейс: Нажмите HTTP-URL (например,
https://xxx.clorecloud.net)SSH:
ssh -p <порт> root@<адрес-прокси>
Первый запуск занимает 5–20 минут — сервер скачивает модели ИИ с HuggingFace. HTTP 502 ошибки в это время нормальны. Подождите и обновите страницу.
Ollama + Open WebUI
3–5 мин
ComfyUI
10–15 мин
vLLM
5–15 мин (зависит от размера модели)
SD WebUI
10–20 мин
Шаг 5: Начните творить
Как только сервис запущен, изучите гиды для вашего конкретного кейса:
🤖 Языковые модели (чат, код, рассуждение)
Ollama — самое простое управление моделями
Llama 4 Scout — последняя модель от Meta, контекст 10M
Gemma 3 — модель Google 27B, превосходит модели 405B
Qwen3.5 — обошла Claude 4.5 по математике (февраль 2026!)
DeepSeek-R1 — рассуждение цепочкой мыслей
vLLM — сервинг API для продакшна
🎨 Генерация изображений
FLUX.2 Klein — < 0.5 сек на изображение!
ComfyUI — рабочие процессы на основе узлов
FLUX.1 — высшее качество с LoRA + ControlNet
Stable Diffusion 3.5 — лучшее рендеринг текста
🎬 Генерация видео
FramePack — требуется всего 6GB VRAM!
Wan2.1 — высококачественный T2V + I2V
LTX-2 — видео С ОЗВУЧКОЙ
CogVideoX — видеомодель Zhipu AI
🔊 Аудио и голос
Qwen3-TTS — клонирование голоса, более 10 языков
WhisperX — транскрипция + диаризация говорящих
Dia TTS — многоголосный диалог
Kokoro — крошечный TTS, всего 2GB VRAM
🎵 Музыка
ACE-Step — полные песни при < 4GB VRAM
💻 AI для кодинга
🧠 Обучение
💡 Советы для новичков
Начните с Ollama — это самый простой способ попробовать ИИ локально
RTX 4090 — оптимальный выбор — покрывает 90% случаев за $0.50–2/день
Используйте Spot-заказы для экспериментов — на 30–50% дешевле
Используйте On-Demand для важной работы — гарантировано, без прерываний
Скачивайте результаты до окончания заказа — файлы удаляются после
Платите токеном CLORE — часто лучшие тарифы, чем у стейблкоинов
Проверьте ОЗУ и сеть — низкое ОЗУ — основная причина сбоев
Устранение неполадок
HTTP 502 длительное время
Подождите 10–20 мин для первого запуска; проверьте ОЗУ ≥ 16GB
Сервис не запускается
ОЗУ слишком мало (нужно 16GB+) или VRAM недостаточна для модели
Медленная загрузка модели
Нормально при первом запуске; предпочтительны серверы с 500Mbps+
CUDA out of memory
Используйте меньшую модель или более мощный GPU; попробуйте квантизованные версии
Не удается подключиться по SSH
Проверьте, что порт указан 22/tcp в конфигурации; дождитесь полного запуска сервера
🐍 Python SDK & CLI (рекомендуется)
Предпочитаете код вместо кликов? Установите официальный SDK:
Или используйте Python напрямую:
→ Полное быстрое введение в Python | Руководство по SDK | Автоматизация CLI
Нужна помощь?
Последнее обновление
Это было полезно?