FAQ

Часто задаваемые вопросы об использовании Clore.ai для AI-нагрузок

Частые вопросы по использованию CLORE.AI для задач ИИ.

circle-check

Начало работы

Как создать аккаунт?

  1. Перейдите на clore.aiarrow-up-right

  2. Нажмите Регистрация

  3. Введите электронную почту и пароль

  4. Подтвердите вашу электронную почту

  5. Готово! Теперь вы можете пополнить счет и арендовать GPU

Какие способы оплаты принимаются?

  • CLORE - Нативный токен (часто обеспечивает лучшие тарифы)

  • BTC - Биткойн

  • USDT - Tether (ERC-20, TRC-20)

  • USDC - USD Coin

Каков минимальный депозит?

Строгого минимума нет, но мы рекомендуем $5–10, чтобы начать эксперименты. Этого хватает на несколько часов на бюджетных GPU.

Сколько времени занимает поступление депозита?

Валюта
Подтверждения
Типичное время

CLORE

10

~10 минут

BTC

2

~20 минут

USDT/USDC

Зависит от сети

1–15 минут


Выбор аппаратуры

Какой GPU мне выбрать?

Зависит от вашей задачи:

Задача
Рекомендуемый GPU

Чат с моделями 7B

RTX 3060 12GB ($0.15–0.30/день)

Чат с моделями 13B–30B

RTX 3090 24GB ($0.30–1.00/день)

Чат с моделями 70B

RTX 5090 32GB ($1.50–3.00/день) или A100 40GB ($1.50–3.00/день)

Генерация изображений (SDXL)

RTX 3090 24GB ($0.30–1.00/день)

Генерация изображений (FLUX)

RTX 4090/5090 ($0.50–3.00/день)

Генерация видео

RTX 4090+ или A100 ($0.50–3.00/день)

Модели 70B+ (FP16)

A100 80GB ($2.00–4.00/день)

См. Сравнение GPU для подробных спецификаций.

В чем разница между On-Demand и Spot?

Тип
Цена
Доступность
Лучше всего для

On-Demand

Фиксированная цена

Гарантировано

Продакшен, долгие задачи

Spot

На 30–50% дешевле

Может быть прервано

Тестирование, пакетные задания

Spot‑заказы могут быть завершены, если кто‑то предложит выше. Часто сохраняйте работу!

Сколько VRAM мне нужно?

Используйте это краткое руководство:

Размер модели
Минимальная VRAM (Q4)
Рекомендуется

7B

6 ГБ

12GB

13B

8GB

16GB

30B

16GB

24 ГБ

70B

35GB

48GB

См. Совместимость моделей для полной информации.

Что означает «Unverified» на сервере?

Непроверенные серверы не прошли аппаратную верификацию CLORE.AI. Они могут:

  • Иметь немного другие характеристики, чем указано

  • Быть менее надежными

Проверенные серверы подтвердили характеристики и имеют лучшую надежность.


Подключение к серверам

Как подключиться через SSH?

После запуска вашего заказа:

  1. Перейдите на Моих заказах

  2. Найдите ваш заказ

  3. Скопируйте SSH‑команду: ssh -p <port> root@<proxy-address>

  4. Используйте пароль, указанный в деталях заказа

Пример:

Соединение SSH отклонено — что делать?

  1. Подождите 1–2 минуты - Сервер может ещё запускаться

  2. Проверьте статус заказа - Должен быть «Running»

  3. Проверьте порт - Используйте порт из деталей заказа, не 22

  4. Проверьте брандмауэр - Ваша сеть может блокировать нестандартные порты

Как получить доступ к веб‑интерфейсам (Gradio, Jupyter)?

  1. В деталях заказа найдите ссылку на HTTP‑порт

  2. Кликните по ссылке, чтобы открыть в браузере

  3. Или вручную: http://<proxy-address>:<http-port>

Можно ли использовать VS Code Remote SSH?

Да! Добавьте в ваш ~/.ssh/config:

Затем подключитесь в VS Code: Remote-SSH: Connect to Hostclore-gpu

Как передавать файлы?

Загрузить на сервер:

Скачать с сервера:

Для больших передач используйте rsync:


Запуск задач ИИ

Как установить пакеты Python?

Для постоянных установок включите в команду запуска или Docker‑образ.

Почему у модели не хватает памяти?

  1. Использовать квантование - Q4 использует в 4 раза меньше VRAM, чем FP16

  2. Включить выгрузку на CPU - Медленнее, но работает

  3. Уменьшите размер батча - Используйте batch_size=1

  4. Уменьшите длину контекста - Сократите max_tokens

  5. Выберите более крупный GPU - Иногда необходимо

Как использовать модели Hugging Face, требующие входа?

Для моделей с ограниченным доступом (Llama и т.д.) сначала примите условия на сайте Hugging Face.

Можно ли запускать несколько моделей одновременно?

Да, если у вас достаточно VRAM:

  • Каждая модель требует выделения собственной VRAM

  • Используйте разные порты для разных сервисов

  • Рассмотрите vLLM для эффективного обслуживания нескольких моделей

Как сохранить работу после окончания заказа?

Перед завершением заказа:

  1. Скачайте результаты: scp -P <port> root@<proxy>:/root/outputs/* ./

  2. Отправьте в облако: aws s3 sync /root/outputs s3://bucket/

  3. Закоммитьте в Git: git push

Данные удаляются при завершении заказа! Всегда делайте резервные копии важных файлов.


Биллинг и заказы

Как рассчитывается оплата?

  • Почасовая ставка × использованные часы

  • Оплата начинается, когда статус заказа — «Running»

  • Минимальная оплата: 1 минута

  • Частичные часы выставляются поминутно

Как остановить заказ?

  1. Перейдите на Моих заказах

  2. Нажмите Остановить в вашем заказе

  3. Подтвердите завершение

С вас спишут только за использованное время.

Можно ли продлить заказ?

Да, если никто не предложил выше по вашему spot‑заказу. Добавьте средства на баланс — заказ продолжится автоматически.

Что произойдет, если баланс закончится?

  1. Отправляется уведомление‑предупреждение

  2. Период отсрочки (~5–10 минут)

  3. Заказ завершён

  4. Все данные потеряны!

Поддерживайте достаточный баланс или скачайте работу до её исчерпания.

Могу ли я получить возврат?

Обратитесь в поддержку в случае:

  • Проблем с аппаратурой (GPU не работает)

  • Значительных простоев

  • Ошибок в выставлении счетов

Возвраты не предоставляются в случаях:

  • Ошибок пользователя

  • Нормального использования заказа

  • Прерываний spot‑заказов


Docker и образы

Какие Docker‑образы доступны?

См. Каталог Docker-образов для готовых к использованию образов:

  • ollama/ollama - LLM runner

  • vllm/vllm-openai - Высокопроизводительный LLM API

  • universonic/stable-diffusion-webui - Генерация изображений

  • yanwk/comfyui-boot - Генерация изображений на Node

Можно ли использовать свой Docker‑образ?

Да! Укажите ваш образ в заказе:

Убедитесь, что образ общедоступен или предоставьте учетные данные.

Как сохранить данные между перезапусками?

Используйте предоставленные точки монтирования томов или укажите свои тома:


Устранение неполадок

Ошибка "CUDA out of memory"

  1. Проверьте VRAM - nvidia-smi

  2. Используйте меньшую модель или квантизацию

  3. Включите offload - --cpu-offload

  4. Уменьшите размер батча - batch_size=1

  5. Завершите другие процессы - pkill python

Ошибка «Connection timed out»

  1. Проверьте статус заказа - Должен быть «Running»

  2. Подождите дольше - Большим образам требуется время на запуск

  3. Проверьте порты - Используйте правильный порт из заказа

  4. Попробуйте снова - Сетевые проблемы временные

Веб‑интерфейс не загружается

  1. Подождите запуск - Некоторым интерфейсам требуется 2–5 минут

  2. Проверьте логи: docker logs <container>

  3. Проверьте порт - Используйте HTTP‑порт из деталей заказа

  4. Проверьте команду - Должна включать --listen 0.0.0.0

Загрузка модели зависла

  1. Проверьте место на диске: df -h

  2. Используйте меньшую модель - Начните с 7B

  3. Предварительная загрузка - Включите в Docker‑образ

  4. Проверьте HF‑токен - Требуется для моделей с ограниченным доступом

Медленная скорость инференса

  1. Проверьте использование GPU: nvidia-smi

  2. Включите GPU - Модель может работать на CPU

  3. Используйте Flash Attention - --flash-attn

  4. Оптимизируйте настройки - Уменьшите точность, размер батча


Безопасность

Мои данные в безопасности?

  • Каждый заказ запускается в изолированном контейнере

  • Данные удаляются при завершении заказа

  • Сетевой трафик проходит через прокси CLORE

  • Не храните конфиденциальные данные на арендованных GPU

Стоит ли менять пароль root?

Необязательно, но рекомендуется для долгих заказов:

Как защитить API‑ключи?

  1. Используйте переменные окружения - Не передавайте в аргументах командной строки

  2. Не коммитьте в Git - Используйте .gitignore

  3. Удаляйте после использования - Очистите историю: history -c


Все ещё нужна помощь?

Последнее обновление

Это было полезно?