Быстрый старт

circle-check

Шаг 1: Создайте аккаунт и пополните баланс

  1. Перейдите на clore.aiarrow-up-rightРегистрация

  2. Подтвердите вашу электронную почту

  3. Перейдите на АккаунтДепозит

  4. Пополнить через CLORE, BTC, USDT, или USDC (минимум ~5$ для начала)

Шаг 2: Выберите GPU

Перейдите в Маркетплейсarrow-up-right и выбирайте в зависимости от вашей задачи:

Что я хочу делать
Минимальная GPU
Бюджет/день

Чат с ИИ (модели 7B)

RTX 3060 12GB

~$0.15

Чат с ИИ (модели 32B)

RTX 4090 24GB

~$0.50

Генерация изображений (FLUX)

RTX 3090 24GB

~$0.30

Генерация видео

RTX 4090 24GB

~$0.50

Генерация музыки

Любой GPU с 4 ГБ+

~$0.15

Клонирование голоса / TTS

RTX 3060 6GB+

~$0.15

Транскрибировать аудио

RTX 3060 8GB+

~$0.15

Дообучение модели

RTX 4090 24GB

~$0.50

Запуск моделей 70B+

A100 80GB

~$2.00

triangle-exclamation

Краткое руководство по GPU

GPU
VRAM
Цена
Оптимальный выбор для

RTX 3060

12GB

0.15–0.30$/день

TTS, музыка, небольшие модели

RTX 3090

24 ГБ

0.30–1.00$/день

Генерация изображений, модели 32B

RTX 4090

24 ГБ

0.50–2.00$/день

Все вплоть до 35B, быстрая инференция

RTX 5090

32GB

1.50–3.00$/день

70B квантованные, самый быстрый

A100 80GB

80GB

2.00–4.00$/день

70B FP16, серьезное обучение

H100 80GB

80GB

3.00–6.00$/день

Модели MoE 400B+

Шаг 3: Деплой

Нажмите Арендовать на выбранном сервере, затем настройте:

  • Тип заказа: On-Demand (гарантировано) или Spot (на 30–50% дешевле, может быть прерван)

  • Docker-образ: Смотрите рецепты ниже

  • Порты: Всегда указывайте 22/tcp (SSH) + порт вашего приложения

  • Окружение: Добавьте любые необходимые API-ключи

🚀 Рецепты в один клик

Чат с ИИ (Ollama + Open WebUI)

Самый простой способ запустить локальный ИИ — интерфейс, похожий на ChatGPT, с любой открытой моделью.

После деплоя откройте HTTP-URL → создайте аккаунт → выберите модель (Llama 4 Scout, Gemma 3, Qwen3.5) → чатитесь!

Генерация изображений (ComfyUI)

Нодовый рабочий процесс для FLUX, Stable Diffusion и др.

Генерация изображений (Stable Diffusion WebUI)

Классический интерфейс для Stable Diffusion, SDXL и SD 3.5.

LLM API сервер (vLLM)

Сервер уровня продакшн с API, совместимым с OpenAI.

Генерация музыки (ACE-Step)

Генерируйте полные песни с вокалом — работает на любом GPU с 4 ГБ+!

Подключитесь по SSH, затем:

Шаг 4: Подключение

После запуска вашего заказа:

  1. Перейдите на Моих заказах → найдите ваш активный заказ

  2. Веб‑интерфейс: Нажмите HTTP-URL (например, https://xxx.clorecloud.net)

  3. SSH: ssh -p <port> root@<proxy-address>

circle-exclamation
Деплой
Типичный запуск

Ollama + Open WebUI

3–5 мин

ComfyUI

10–15 мин

vLLM

5–15 мин (зависит от размера модели)

SD WebUI

10–20 мин

Шаг 5: Начните творить

Когда ваш сервис запущен, изучите руководства для вашего конкретного случая:

🤖 Языковые модели (чат, код, рассуждение)

  • Ollama — самое простое управление моделями

  • Llama 4 Scout — последние разработки Meta, контекст 10M

  • Gemma 3 — Google's 27B, который превосходит модели 405B

  • Qwen3.5 — обошел Claude 4.5 по математике (февраль 2026!)

  • DeepSeek-R1 — рассуждение «цепочкой мыслей»

  • vLLM — продакшн-сервер API

🎨 Генерация изображений

  • FLUX.2 Klein — < 0.5 сек на изображение!

  • ComfyUI — нодовые рабочие процессы

  • FLUX.1 — наивысшее качество с LoRA + ControlNet

  • Stable Diffusion 3.5 — лучшее отображение текста

🎬 Генерация видео

  • FramePack — требуется всего 6 ГБ VRAM!

  • Wan2.1 — высококачественное T2V + I2V

  • LTX-2 — видео С аудио

  • CogVideoX — видеомодель Zhipu AI

🔊 Аудио и голос

  • Qwen3-TTS — клонирование голоса, 10+ языков

  • WhisperX — транскрипция + диаризация говорящих

  • Dia TTS — многоговорящая диалоговая система

  • Kokoro — миниатюрный TTS, всего 2 ГБ VRAM

🎵 Музыка

  • ACE-Step — полные песни на < 4 ГБ VRAM

💻 AI-кодинг

  • TabbyML — self-hosted Copilot за $4.50/месяц

  • Aider — терминальный помощник по кодированию на базе ИИ

🧠 Обучение

  • Unsloth — в 2 раза быстрее, на 70% меньше VRAM

  • Axolotl — дообучение на основе YAML

💡 Советы для начинающих

  1. Начните с Ollama — это самый простой способ попробовать ИИ локально

  2. RTX 4090 — оптимальный выбор — покрывает 90% случаев использования при $0.50–2/день

  3. Используйте Spot-заказы для экспериментов — на 30–50% дешевле

  4. Используйте On-Demand для важной работы — гарантировано, без прерываний

  5. Скачивайте свои результаты до окончания заказа — файлы удаляются после

  6. Платите токеном CLORE — часто выгоднее, чем стейблкоины

  7. Проверяйте ОЗУ и сеть — низкое ОЗУ — причина №1 сбоев

Устранение неполадок

Проблема
Решение

HTTP 502 длительное время

Подождите 10–20 минут для первого запуска; проверьте ОЗУ ≥ 16 ГБ

Сервис не запускается

ОЗУ слишком мало (нужно 16 ГБ+) или VRAM недостаточно для модели

Медленная загрузка модели

Нормально при первом запуске; предпочтительны серверы с 500 Мбит/с+

CUDA — недостаточно памяти

Используйте меньшую модель или более мощный GPU; попробуйте квантованные версии

Не удается подключиться по SSH

Проверьте, что порт указан 22/tcp в конфигурации; дождитесь полного запуска сервера

Нужна помощь?

Последнее обновление

Это было полезно?