Быстрый старт

circle-check

Шаг 1: Создать аккаунт и пополнить средства

  1. Перейдите на clore.aiarrow-up-rightЗарегистрироваться

  2. Подтвердите свою электронную почту

  3. Перейдите на АккаунтПополнение

  4. Добавьте средства через CLORE, BTC, USDT, или USDC (минимум ~5$ для начала)

Шаг 2: Выберите GPU

Перейдите в Маркетплейсarrow-up-right и выбирайте в зависимости от вашей задачи:

Что я хочу сделать
Минимальный GPU
Бюджет/день

Чат с ИИ (модели 7B)

RTX 3060 12GB

~$0.15

Чат с ИИ (модели 32B)

RTX 4090 24GB

~$0.50

Генерация изображений (FLUX)

RTX 3090 24GB

~$0.30

Генерация видео

RTX 4090 24GB

~$0.50

Генерация музыки

Любой GPU 4GB+

~$0.15

Клонирование голоса / TTS

RTX 3060 6GB+

~$0.15

Транскрибировать аудио

RTX 3060 8GB+

~$0.15

Тонкая настройка модели

RTX 4090 24GB

~$0.50

Запуск моделей 70B+

A100 80GB

~$2.00

triangle-exclamation

Краткое руководство по GPU

GPU
VRAM
Цена
Оптимально для

RTX 3060

12GB

$0.15–0.30/день

TTS, музыка, маленькие модели

RTX 3090

24GB

$0.30–1.00/день

Генерация изображений, модели 32B

RTX 4090

24GB

$0.50–2.00/день

Все до 35B, быстрая инференция

RTX 5090

32GB

$1.50–3.00/день

Квантизованные 70B, самый быстрый

A100 80GB

80GB

$2.00–4.00/день

70B FP16, серьезное обучение

H100 80GB

80GB

$3.00–6.00/день

Модели MoE 400B+

Шаг 3: Развертывание

Нажмите Арендовать на выбранном сервере, затем настройте:

  • Тип заказа: On-Demand (гарантированный) или Spot (на 30–50% дешевле, может быть прерван)

  • Docker-образ: Смотрите рецепты ниже

  • Порты: Всегда указывайте 22/tcp (SSH) + порт вашего приложения

  • Окружение: Добавьте любые необходимые API-ключи

🚀 Рецепты в один клик

Чат с ИИ (Ollama + Open WebUI)

Самый простой способ запустить локальный ИИ — интерфейс, похожий на ChatGPT, с любой открытой моделью.

После развертывания откройте HTTP-URL → создайте аккаунт → выберите модель (Llama 4 Scout, Gemma 3, Qwen3.5) → общайтесь!

Генерация изображений (ComfyUI)

Поток работы на основе узлов для FLUX, Stable Diffusion и других.

Генерация изображений (Stable Diffusion WebUI)

Классический интерфейс для Stable Diffusion, SDXL и SD 3.5.

LLM API сервер (vLLM)

Сервинг уровня продакшн с API совместимым с OpenAI.

Генерация музыки (ACE-Step)

Генерируйте полные песни с вокалом — работает на любом GPU с 4GB+!

Подключитесь по SSH, затем:

Шаг 4: Подключение

После запуска вашего заказа:

  1. Перейдите на Мои заказы → найдите ваш активный заказ

  2. Веб-интерфейс: Нажмите HTTP-URL (например, https://xxx.clorecloud.net)

  3. SSH: ssh -p <порт> root@<адрес-прокси>

circle-exclamation
Развернуть
Типичный запуск

Ollama + Open WebUI

3–5 мин

ComfyUI

10–15 мин

vLLM

5–15 мин (зависит от размера модели)

SD WebUI

10–20 мин

Шаг 5: Начните творить

Как только сервис запущен, изучите гиды для вашего конкретного кейса:

🤖 Языковые модели (чат, код, рассуждение)

  • Ollama — самое простое управление моделями

  • Llama 4 Scout — последняя модель от Meta, контекст 10M

  • Gemma 3 — модель Google 27B, превосходит модели 405B

  • Qwen3.5 — обошла Claude 4.5 по математике (февраль 2026!)

  • DeepSeek-R1 — рассуждение цепочкой мыслей

  • vLLM — сервинг API для продакшна

🎨 Генерация изображений

  • FLUX.2 Klein — < 0.5 сек на изображение!

  • ComfyUI — рабочие процессы на основе узлов

  • FLUX.1 — высшее качество с LoRA + ControlNet

  • Stable Diffusion 3.5 — лучшее рендеринг текста

🎬 Генерация видео

  • FramePack — требуется всего 6GB VRAM!

  • Wan2.1 — высококачественный T2V + I2V

  • LTX-2 — видео С ОЗВУЧКОЙ

  • CogVideoX — видеомодель Zhipu AI

🔊 Аудио и голос

  • Qwen3-TTS — клонирование голоса, более 10 языков

  • WhisperX — транскрипция + диаризация говорящих

  • Dia TTS — многоголосный диалог

  • Kokoro — крошечный TTS, всего 2GB VRAM

🎵 Музыка

  • ACE-Step — полные песни при < 4GB VRAM

💻 AI для кодинга

  • TabbyML — само-хостируемый Copilot за $4.50/мес

  • Aider — AI-помощник для кодинга в терминале

🧠 Обучение

  • Unsloth — в 2 раза быстрее, на 70% меньше VRAM

  • Axolotl — тонкая настройка на основе YAML

💡 Советы для новичков

  1. Начните с Ollama — это самый простой способ попробовать ИИ локально

  2. RTX 4090 — оптимальный выбор — покрывает 90% случаев за $0.50–2/день

  3. Используйте Spot-заказы для экспериментов — на 30–50% дешевле

  4. Используйте On-Demand для важной работы — гарантировано, без прерываний

  5. Скачивайте результаты до окончания заказа — файлы удаляются после

  6. Платите токеном CLORE — часто лучшие тарифы, чем у стейблкоинов

  7. Проверьте ОЗУ и сеть — низкое ОЗУ — основная причина сбоев

Устранение неполадок

Проблема
Решение

HTTP 502 длительное время

Подождите 10–20 мин для первого запуска; проверьте ОЗУ ≥ 16GB

Сервис не запускается

ОЗУ слишком мало (нужно 16GB+) или VRAM недостаточна для модели

Медленная загрузка модели

Нормально при первом запуске; предпочтительны серверы с 500Mbps+

CUDA out of memory

Используйте меньшую модель или более мощный GPU; попробуйте квантизованные версии

Не удается подключиться по SSH

Проверьте, что порт указан 22/tcp в конфигурации; дождитесь полного запуска сервера

🐍 Python SDK & CLI (рекомендуется)

Предпочитаете код вместо кликов? Установите официальный SDK:

Или используйте Python напрямую:

Полное быстрое введение в Python | Руководство по SDK | Автоматизация CLI

Нужна помощь?

Последнее обновление

Это было полезно?