# OpenClaw на Clore

## Обзор

[OpenClaw](https://openclaw.ai) — это платформа с открытым исходным кодом для AI-агентов, которая подключается к Claude, GPT, Gemini и локальным моделям — выступая личным AI-помощником в Telegram, Discord, WhatsApp и других. Запуск её на сервере Clore.ai даёт вам:

* **Круглосуточная доступность** — никакого сна ноутбука, никаких разрывов соединения
* **Ускорение на GPU** — локальный вывод LLM (Ollama, vLLM), Whisper STT, TTS, генерация изображений
* **Низкая стоимость** — арендуйте ровно тот ресурс, который вам нужен, платите поминутно/почасово
* **Полный контроль** — root-доступ, поддержка Docker, любой стек ПО

### Почему Clore + OpenClaw?

| Функция             | Ноутбук    | Традиционный VPS | Сервер Clore.ai        |
| ------------------- | ---------- | ---------------- | ---------------------- |
| Постоянная работа   | ❌          | ✅                | ✅                      |
| Наличие GPU         | Ограничено | ❌ или дорого     | ✅ от $0.10/час         |
| Локальный вывод LLM | Медленно   | Только CPU       | Полная скорость на GPU |
| Голос (Whisper/TTS) | ✅          | Медленно (CPU)   | ✅ В реальном времени   |
| Root + Docker       | ✅          | ✅                | ✅                      |
| Почасовая оплата    | Н/Д        | Ежемесячно       | ✅ По часам             |

### Рекомендуемое железо

| Сценарий использования                                         | GPU                | VRAM     | ОЗУ    | Примерная стоимость |
| -------------------------------------------------------------- | ------------------ | -------- | ------ | ------------------- |
| **Базовый помощник** (только через API, без локальных моделей) | Любой / только CPU | —        | 8 ГБ+  | $0.05–0.15/час      |
| **Локальная LLM 7–8B** (Ollama + Llama 3.1 8B)                 | RTX 3060/3070      | 12 ГБ    | 16 ГБ+ | $0.10–0.25/час      |
| **Локальная LLM 70B** (vLLM + Llama 3.1 70B)                   | RTX 4090 / A100    | 24–80 ГБ | 64 ГБ+ | $0.30–1.00/час      |
| **Полный стек** (LLM + Whisper + TTS + генерация изображений)  | RTX 4090           | 24 ГБ    | 32 ГБ+ | $0.25–0.50/час      |

> **Совет:** Если вам нужен OpenClaw только как облачный помощник на API-моделях (Claude, GPT), GPU вообще не требуется — подойдёт дешёвый CPU-сервер. Добавьте GPU, когда понадобится локальный вывод.

***

## Шаг 1: Арендуйте сервер на Clore.ai

### 1.1 Просмотрите маркетплейс

Перейдите на [clore.ai/marketplace](https://clore.ai/marketplace) и отфильтруйте по вашим требованиям:

* **Для базового помощника**: Сортируйте по цене, выберите любой недорогой сервер на Ubuntu
* **Для локальной LLM**: Отфильтруйте по GPU (например, RTX 4090), убедитесь в ≥24 ГБ VRAM
* **ОС**: Выберите **Ubuntu 22.04** или **Ubuntu 24.04** (лучшая совместимость)

### 1.2 Создать заказ

1. Выберите сервер → **Арендовать**
2. Выберите **On-demand** (почасовая) или **Spot** (дешевле, но может быть выкуплена)
3. Выберите Docker-образ: **`ubuntu:22.04`** или **`nvidia/cuda:12.4.0-runtime-ubuntu22.04`** (если нужен GPU)
4. Установите публичный SSH-ключ (или используйте пароль — рекомендуется SSH-ключ)
5. Подтвердите заказ

### 1.3 Подключение по SSH

Когда сервер запущен, найдите данные для SSH-подключения на странице [Заказы](https://clore.ai/my-orders) странице:

```bash
ssh root@<server-ip> -p <port>
```

> **Примечание:** Серверы Clore используют Docker-контейнеры, поэтому у вас есть root-доступ внутри контейнера. SSH-порт может быть нестандартным (например, 50022) — проверьте детали заказа.

***

## Шаг 2: Установите OpenClaw

### 2.1 Установите Node.js 22+

```bash
# Обновите системные пакеты
apt update && apt upgrade -y

# Установите Node.js 22 через NodeSource
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs

# Проверка
node --version   # Должно показать v22.x.x
npm --version
```

### 2.2 Установите OpenClaw

**Вариант A: Скрипт-установщик (рекомендуется)**

```bash
curl -fsSL https://openclaw.ai/install.sh | bash
```

Скрипт устанавливает CLI, запускает onboarding и стартует gateway.

**Вариант B: Ручная установка через npm**

```bash
npm install -g openclaw@latest
openclaw onboard --install-daemon
```

### 2.3 Запустите мастер настройки (onboarding)

Если вы использовали скрипт-установщик, onboarding запускается автоматически. В противном случае:

```bash
openclaw onboard --install-daemon
```

Мастер попросит вас:

1. **Настроить аутентификацию** — вставьте ваш Anthropic API-ключ или подключитесь через OAuth
2. **Выбрать канал** — токен Telegram-бота, Discord, WhatsApp и т.д.
3. **Настроить gateway** — порт, биндинг, безопасность

> **Для Telegram:** Создайте бота через [@BotFather](https://t.me/BotFather), скопируйте токен и вставьте его в процессе настройки.

***

## Шаг 3: Настройка для круглосуточной работы

### 3.1 Запустите Gateway как сервис

```bash
# Проверьте, работает ли gateway
openclaw gateway status

# Запустите его (если ещё не запущен)
openclaw gateway start

# Убедитесь, что он в порядке
openclaw status
```

### 3.2 Поддержание работы через systemd (рекомендуется)

Если OpenClaw не установил systemd-сервис автоматически:

```bash
# Создайте systemd-файл сервиса
cat > /etc/systemd/system/openclaw.service << 'EOF'
[Unit]
Description=OpenClaw Gateway
After=network.target

[Service]
Type=simple
ExecStart=/usr/bin/openclaw gateway --port 18789
Restart=always
RestartSec=10
Environment=NODE_ENV=production
WorkingDirectory=/root

[Install]
WantedBy=multi-user.target
EOF

# Включить и запустить
systemctl daemon-reload
systemctl enable openclaw
systemctl start openclaw

# Проверить статус
systemctl status openclaw
```

### 3.3 Альтернатива: screen/tmux (быстро и просто)

```bash
# Установите screen
apt install -y screen

# Запустите OpenClaw в отсоединённой сессии screen
screen -dmS openclaw openclaw gateway --port 18789

# Переподключиться позже
screen -r openclaw
```

***

## Шаг 4: Настройка GPU (опционально — для локальных моделей)

Пропустите этот раздел, если вы используете только модели через API (Claude, GPT и т.д.).

### 4.1 Проверьте доступ к GPU

```bash
# Проверьте, доступны ли драйверы NVIDIA
nvidia-smi
```

Если `nvidia-smi` работает, ваш GPU готов. Большинство CUDA-образов Clore поставляются преднастроенными.

### 4.2 Установите Ollama (локальный вывод LLM)

```bash
curl -fsSL https://ollama.com/install.sh | sh

# Запустите Ollama
ollama serve &

# Скачайте модель
ollama pull llama3.1:8b        # 8B — помещается в 12GB VRAM
# ollama pull llama3.1:70b     # 70B — требует 48GB+ VRAM
# ollama pull qwen2.5:32b      # 32B — требует 24GB VRAM
```

Настройте OpenClaw на использование Ollama как провайдера — см. [руководство Ollama](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/ollama) для подробностей.

### 4.3 Установите Whisper (транскрипция речи)

Для ускоренной на GPU системы распознавания речи:

```bash
pip install faster-whisper

# Или используйте WhisperX для лучшей точности
pip install whisperx
```

См. [руководство WhisperX](https://docs.clore.ai/guides/guides_v2-ru/audio-i-golos/whisperx) для полной настройки.

***

## Шаг 5: Безопасность и удалённый доступ

### 5.1 Защитите Gateway

По умолчанию gateway привязан к loopback (127.0.0.1). Для удалённого доступа:

**Вариант A: SSH-туннель (самый безопасный)**

С вашего ноутбука:

```bash
ssh -N -L 18789:127.0.0.1:18789 root@<server-ip> -p <port>
```

Затем откройте `http://127.0.0.1:18789/` в браузере.

**Вариант B: Прямой доступ с защитой токеном**

Отредактируйте `~/.openclaw/config.json5`:

```json5
{
  gateway: {
    bind: "lan",       // Слушать на всех интерфейсах
    port: 18789,
    auth: {
      token: "your-secret-token-here"  // Требуется для удалённого доступа!
    }
  }
}
```

> ⚠️ **Всегда устанавливайте токен** если привязка к `lan`. Без него любой сможет получить доступ к вашему gateway.

### 5.2 Настройка брандмауэра

```bash
# Установите UFW
apt install -y ufw

# Разрешите SSH (используйте ваш Clore SSH-порт)
ufw allow <ssh-port>/tcp

# Разрешите OpenClaw gateway (только если используете прямой доступ)
ufw allow 18789/tcp

# Включите брандмауэр
ufw enable
```

***

## Шаг 6: Постоянство и резервные копии

### 6.1 Важные директории

| Путь                     | Содержимое                                               |
| ------------------------ | -------------------------------------------------------- |
| `~/.openclaw/`           | Конфигурация, аутентификация, состояние, профили агентов |
| `~/.openclaw/workspace/` | MEMORY.md, ежедневные заметки, навыки, инструменты       |
| `~/.openclaw/agents/`    | Конфиги мультиагентов (если используются команды)        |

### 6.2 Скрипт резервного копирования

Создайте простой бэкап, чтобы сохранить конфиг в безопасности:

```bash
cat > /root/backup-openclaw.sh << 'EOF'
#!/bin/bash
BACKUP_DIR="/root/openclaw-backups"
mkdir -p "$BACKUP_DIR"
TIMESTAMP=$(date +%Y%m%d_%H%M%S)
tar czf "$BACKUP_DIR/openclaw-$TIMESTAMP.tar.gz" \
  ~/.openclaw/config.json5 \
  ~/.openclaw/workspace/ \
  ~/.openclaw/agents/ \
  ~/.openclaw/identity/
echo "Резервная копия сохранена: $BACKUP_DIR/openclaw-$TIMESTAMP.tar.gz"
EOF
chmod +x /root/backup-openclaw.sh

# Запуск каждый день через cron
(crontab -l 2>/dev/null; echo "0 4 * * * /root/backup-openclaw.sh") | crontab -
```

### 6.3 Миграция между серверами

Если вам нужно переключиться на другой сервер Clore:

```bash
# На старом сервере — экспорт
tar czf /tmp/openclaw-migration.tar.gz ~/.openclaw/

# Перенос на новый сервер
scp -P <port> /tmp/openclaw-migration.tar.gz root@<new-server-ip>:/tmp/

# На новом сервере — импорт
tar xzf /tmp/openclaw-migration.tar.gz -C /
openclaw gateway start
```

***

## Примеры конфигураций

### Базовый Telegram-бот (без GPU)

Самая дешевая конфигурация — просто помощник через API:

```
Сервер: Любой Ubuntu, GPU не нужен
Стоимость: ~ $0.05–0.15/час ($3–10/месяц)
Конфигурация: Anthropic API-ключ + токен Telegram-бота
```

### AI-рабочая станция (GPU)

Полнофункциональная с локальными моделями:

```
Сервер: RTX 4090, 24GB VRAM, 32GB RAM
Стоимость: ~ $0.25–0.50/час
Стек: OpenClaw + Ollama (Llama 3.1 70B) + WhisperX + Coqui TTS
```

### Команда многo-агентов

Запустите команду специализированных AI-агентов:

```
Сервер: RTX 4090 или двойной GPU
Стоимость: ~ $0.30–0.60/час
Стек: OpenClaw multi-agent (5+ агентов) + Ollama + общие навыки
```

***

## Устранение неполадок

### Gateway не запускается

```bash
# Проверьте логи
openclaw gateway status
journalctl -u openclaw -n 50

# Частая проблема: порт уже используется
lsof -i :18789
kill <pid>
openclaw gateway start
```

### GPU не обнаружен

```bash
# Проверьте драйверы NVIDIA
nvidia-smi

# Если не найдено, возможно, нужен CUDA Docker-образ
# Воссоздайте заказ с nvidia/cuda:12.4.0-runtime-ubuntu22.04
```

### Соединение пропадает при перезагрузке сервера

Spot-инстансы Clore могут быть возвращены поставщиком. Для постоянной работы:

* Используйте **on-demand** ценообразование (не spot)
* Настройте systemd-сервис (авто-перезапуск)
* Держите бэкапы (скрипт выше)
* Рассмотрите выделенный/зарезервированный сервер для критичных нагрузок

### Проблемы с версией Node.js

```bash
# Проверьте версию
node --version

# Если ниже v22 — переустановите
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs
```

***

## Советы и лучшие практики

1. **Начинайте дешево** — Сначала используйте базовый CPU-сервер. Добавьте GPU, когда понадобится локальный вывод.
2. **Используйте on-demand для продакшна** — Spot дешевле, но может быть прерван. On-demand гарантирует доступность.
3. **Регулярно делайте резервные копии** — Ваш `~/.openclaw/workspace/` содержит всю память и конфиги.
4. **Следите за расходами** — Регулярно проверяйте панель Clore. При возможности настройте оповещения о расходах.
5. **Используйте Control UI** — Доступ через SSH-туннель на `http://127.0.0.1:18789/` для управления через веб-интерфейс.
6. **Комбинируйте с API-моделями** — Даже с GPU-сервером используйте Claude/GPT через API для основного агента и локальные модели для отдельных задач (эмбеддинги, транскрипция).

***

## Дальнейшее чтение

* [С чего начать с OpenClaw](https://docs.openclaw.ai/start/getting-started)
* [Руководство по VPS-хостингу OpenClaw](https://docs.openclaw.ai/install/vps)
* [Настройка OpenClaw в Docker](https://docs.openclaw.ai/install/docker)
* [Ollama на Clore](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/ollama)
* [vLLM на Clore](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/vllm)
* [Сравнение GPU и ценообразование](https://docs.clore.ai/guides/guides_v2-ru/nachalo-raboty/gpu-comparison)
