# OpenClaw на Clore

## Обзор

[OpenClaw](https://openclaw.ai) — это платформа с открытым исходным кодом для AI-агентов, которая подключается к Claude, GPT, Gemini и локальным моделям — выступая личным AI-помощником в Telegram, Discord, WhatsApp и других. Запуск её на сервере Clore.ai даёт вам:

* **Круглосуточная доступность** — никакого сна ноутбука, никаких разрывов соединения
* **Ускорение на GPU** — локальный вывод LLM (Ollama, vLLM), Whisper STT, TTS, генерация изображений
* **Низкая стоимость** — арендуйте ровно тот ресурс, который вам нужен, платите поминутно/почасово
* **Полный контроль** — root-доступ, поддержка Docker, любой стек ПО

### Почему Clore + OpenClaw?

| Функция             | Ноутбук    | Традиционный VPS | Сервер Clore.ai        |
| ------------------- | ---------- | ---------------- | ---------------------- |
| Постоянная работа   | ❌          | ✅                | ✅                      |
| Наличие GPU         | Ограничено | ❌ или дорого     | ✅ от $0.10/час         |
| Локальный вывод LLM | Медленно   | Только CPU       | Полная скорость на GPU |
| Голос (Whisper/TTS) | ✅          | Медленно (CPU)   | ✅ В реальном времени   |
| Root + Docker       | ✅          | ✅                | ✅                      |
| Почасовая оплата    | Н/Д        | Ежемесячно       | ✅ По часам             |

### Рекомендуемое железо

| Сценарий использования                                         | GPU                | VRAM     | ОЗУ    | Примерная стоимость |
| -------------------------------------------------------------- | ------------------ | -------- | ------ | ------------------- |
| **Базовый помощник** (только через API, без локальных моделей) | Любой / только CPU | —        | 8 ГБ+  | $0.05–0.15/час      |
| **Локальная LLM 7–8B** (Ollama + Llama 3.1 8B)                 | RTX 3060/3070      | 12 ГБ    | 16 ГБ+ | $0.10–0.25/час      |
| **Локальная LLM 70B** (vLLM + Llama 3.1 70B)                   | RTX 4090 / A100    | 24–80 ГБ | 64 ГБ+ | $0.30–1.00/час      |
| **Полный стек** (LLM + Whisper + TTS + генерация изображений)  | RTX 4090           | 24 ГБ    | 32 ГБ+ | $0.25–0.50/час      |

> **Совет:** Если вам нужен OpenClaw только как облачный помощник на API-моделях (Claude, GPT), GPU вообще не требуется — подойдёт дешёвый CPU-сервер. Добавьте GPU, когда понадобится локальный вывод.

***

## Шаг 1: Арендуйте сервер на Clore.ai

### 1.1 Просмотрите маркетплейс

Перейдите на [clore.ai/marketplace](https://clore.ai/marketplace) и отфильтруйте по вашим требованиям:

* **Для базового помощника**: Сортируйте по цене, выберите любой недорогой сервер на Ubuntu
* **Для локальной LLM**: Отфильтруйте по GPU (например, RTX 4090), убедитесь в ≥24 ГБ VRAM
* **ОС**: Выберите **Ubuntu 22.04** или **Ubuntu 24.04** (лучшая совместимость)

### 1.2 Создать заказ

1. Выберите сервер → **Арендовать**
2. Выберите **On-demand** (почасовая) или **Spot** (дешевле, но может быть выкуплена)
3. Выберите Docker-образ: **`ubuntu:22.04`** или **`nvidia/cuda:12.4.0-runtime-ubuntu22.04`** (если нужен GPU)
4. Установите публичный SSH-ключ (или используйте пароль — рекомендуется SSH-ключ)
5. Подтвердите заказ

### 1.3 Подключение по SSH

Когда сервер запущен, найдите данные для SSH-подключения на странице [Заказы](https://clore.ai/my-orders) странице:

```bash
ssh root@<server-ip> -p <port>
```

> **Примечание:** Серверы Clore используют Docker-контейнеры, поэтому у вас есть root-доступ внутри контейнера. SSH-порт может быть нестандартным (например, 50022) — проверьте детали заказа.

***

## Шаг 2: Установите OpenClaw

### 2.1 Установите Node.js 22+

```bash
# Обновите системные пакеты
apt update && apt upgrade -y

# Установите Node.js 22 через NodeSource
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs

# Проверка
node --version   # Должно показать v22.x.x
npm --version
```

### 2.2 Установите OpenClaw

**Вариант A: Скрипт-установщик (рекомендуется)**

```bash
curl -fsSL https://openclaw.ai/install.sh | bash
```

Скрипт устанавливает CLI, запускает onboarding и стартует gateway.

**Вариант B: Ручная установка через npm**

```bash
npm install -g openclaw@latest
openclaw onboard --install-daemon
```

### 2.3 Запустите мастер настройки (onboarding)

Если вы использовали скрипт-установщик, onboarding запускается автоматически. В противном случае:

```bash
openclaw onboard --install-daemon
```

Мастер попросит вас:

1. **Настроить аутентификацию** — вставьте ваш Anthropic API-ключ или подключитесь через OAuth
2. **Выбрать канал** — токен Telegram-бота, Discord, WhatsApp и т.д.
3. **Настроить gateway** — порт, биндинг, безопасность

> **Для Telegram:** Создайте бота через [@BotFather](https://t.me/BotFather), скопируйте токен и вставьте его в процессе настройки.

***

## Шаг 3: Настройка для круглосуточной работы

### 3.1 Запустите Gateway как сервис

```bash
# Проверьте, работает ли gateway
openclaw gateway status

# Запустите его (если ещё не запущен)
openclaw gateway start

# Убедитесь, что он в порядке
openclaw status
```

### 3.2 Поддержание работы через systemd (рекомендуется)

Если OpenClaw не установил systemd-сервис автоматически:

```bash
# Создайте systemd-файл сервиса
cat > /etc/systemd/system/openclaw.service << 'EOF'
[Unit]
Description=OpenClaw Gateway
After=network.target

[Service]
Type=simple
ExecStart=/usr/bin/openclaw gateway --port 18789
Restart=always
RestartSec=10
Environment=NODE_ENV=production
WorkingDirectory=/root

[Install]
WantedBy=multi-user.target
EOF

# Включить и запустить
systemctl daemon-reload
systemctl enable openclaw
systemctl start openclaw

# Проверить статус
systemctl status openclaw
```

### 3.3 Альтернатива: screen/tmux (быстро и просто)

```bash
# Установите screen
apt install -y screen

# Запустите OpenClaw в отсоединённой сессии screen
screen -dmS openclaw openclaw gateway --port 18789

# Переподключиться позже
screen -r openclaw
```

***

## Шаг 4: Настройка GPU (опционально — для локальных моделей)

Пропустите этот раздел, если вы используете только модели через API (Claude, GPT и т.д.).

### 4.1 Проверьте доступ к GPU

```bash
# Проверьте, доступны ли драйверы NVIDIA
nvidia-smi
```

Если `nvidia-smi` работает, ваш GPU готов. Большинство CUDA-образов Clore поставляются преднастроенными.

### 4.2 Установите Ollama (локальный вывод LLM)

```bash
curl -fsSL https://ollama.com/install.sh | sh

# Запустите Ollama
ollama serve &

# Скачайте модель
ollama pull llama3.1:8b        # 8B — помещается в 12GB VRAM
# ollama pull llama3.1:70b     # 70B — требует 48GB+ VRAM
# ollama pull qwen2.5:32b      # 32B — требует 24GB VRAM
```

Настройте OpenClaw на использование Ollama как провайдера — см. [руководство Ollama](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/ollama) для подробностей.

### 4.3 Установите Whisper (транскрипция речи)

Для ускоренной на GPU системы распознавания речи:

```bash
pip install faster-whisper

# Или используйте WhisperX для лучшей точности
pip install whisperx
```

См. [руководство WhisperX](https://docs.clore.ai/guides/guides_v2-ru/audio-i-golos/whisperx) для полной настройки.

***

## Шаг 5: Безопасность и удалённый доступ

### 5.1 Защитите Gateway

По умолчанию gateway привязан к loopback (127.0.0.1). Для удалённого доступа:

**Вариант A: SSH-туннель (самый безопасный)**

С вашего ноутбука:

```bash
ssh -N -L 18789:127.0.0.1:18789 root@<server-ip> -p <port>
```

Затем откройте `http://127.0.0.1:18789/` в браузере.

**Вариант B: Прямой доступ с защитой токеном**

Отредактируйте `~/.openclaw/config.json5`:

```json5
{
  gateway: {
    bind: "lan",       // Слушать на всех интерфейсах
    port: 18789,
    auth: {
      token: "your-secret-token-here"  // Требуется для удалённого доступа!
    }
  }
}
```

> ⚠️ **Всегда устанавливайте токен** если привязка к `lan`. Без него любой сможет получить доступ к вашему gateway.

### 5.2 Настройка брандмауэра

```bash
# Установите UFW
apt install -y ufw

# Разрешите SSH (используйте ваш Clore SSH-порт)
ufw allow <ssh-port>/tcp

# Разрешите OpenClaw gateway (только если используете прямой доступ)
ufw allow 18789/tcp

# Включите брандмауэр
ufw enable
```

***

## Шаг 6: Постоянство и резервные копии

### 6.1 Важные директории

| Путь                     | Содержимое                                               |
| ------------------------ | -------------------------------------------------------- |
| `~/.openclaw/`           | Конфигурация, аутентификация, состояние, профили агентов |
| `~/.openclaw/workspace/` | MEMORY.md, ежедневные заметки, навыки, инструменты       |
| `~/.openclaw/agents/`    | Конфиги мультиагентов (если используются команды)        |

### 6.2 Скрипт резервного копирования

Создайте простой бэкап, чтобы сохранить конфиг в безопасности:

```bash
cat > /root/backup-openclaw.sh << 'EOF'
#!/bin/bash
BACKUP_DIR="/root/openclaw-backups"
mkdir -p "$BACKUP_DIR"
TIMESTAMP=$(date +%Y%m%d_%H%M%S)
tar czf "$BACKUP_DIR/openclaw-$TIMESTAMP.tar.gz" \
  ~/.openclaw/config.json5 \
  ~/.openclaw/workspace/ \
  ~/.openclaw/agents/ \
  ~/.openclaw/identity/
echo "Резервная копия сохранена: $BACKUP_DIR/openclaw-$TIMESTAMP.tar.gz"
EOF
chmod +x /root/backup-openclaw.sh

# Запуск каждый день через cron
(crontab -l 2>/dev/null; echo "0 4 * * * /root/backup-openclaw.sh") | crontab -
```

### 6.3 Миграция между серверами

Если вам нужно переключиться на другой сервер Clore:

```bash
# На старом сервере — экспорт
tar czf /tmp/openclaw-migration.tar.gz ~/.openclaw/

# Перенос на новый сервер
scp -P <port> /tmp/openclaw-migration.tar.gz root@<new-server-ip>:/tmp/

# На новом сервере — импорт
tar xzf /tmp/openclaw-migration.tar.gz -C /
openclaw gateway start
```

***

## Примеры конфигураций

### Базовый Telegram-бот (без GPU)

Самая дешевая конфигурация — просто помощник через API:

```
Сервер: Любой Ubuntu, GPU не нужен
Стоимость: ~ $0.05–0.15/час ($3–10/месяц)
Конфигурация: Anthropic API-ключ + токен Telegram-бота
```

### AI-рабочая станция (GPU)

Полнофункциональная с локальными моделями:

```
Сервер: RTX 4090, 24GB VRAM, 32GB RAM
Стоимость: ~ $0.25–0.50/час
Стек: OpenClaw + Ollama (Llama 3.1 70B) + WhisperX + Coqui TTS
```

### Команда многo-агентов

Запустите команду специализированных AI-агентов:

```
Сервер: RTX 4090 или двойной GPU
Стоимость: ~ $0.30–0.60/час
Стек: OpenClaw multi-agent (5+ агентов) + Ollama + общие навыки
```

***

## Устранение неполадок

### Gateway не запускается

```bash
# Проверьте логи
openclaw gateway status
journalctl -u openclaw -n 50

# Частая проблема: порт уже используется
lsof -i :18789
kill <pid>
openclaw gateway start
```

### GPU не обнаружен

```bash
# Проверьте драйверы NVIDIA
nvidia-smi

# Если не найдено, возможно, нужен CUDA Docker-образ
# Воссоздайте заказ с nvidia/cuda:12.4.0-runtime-ubuntu22.04
```

### Соединение пропадает при перезагрузке сервера

Spot-инстансы Clore могут быть возвращены поставщиком. Для постоянной работы:

* Используйте **on-demand** ценообразование (не spot)
* Настройте systemd-сервис (авто-перезапуск)
* Держите бэкапы (скрипт выше)
* Рассмотрите выделенный/зарезервированный сервер для критичных нагрузок

### Проблемы с версией Node.js

```bash
# Проверьте версию
node --version

# Если ниже v22 — переустановите
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
apt install -y nodejs
```

***

## Советы и лучшие практики

1. **Начинайте дешево** — Сначала используйте базовый CPU-сервер. Добавьте GPU, когда понадобится локальный вывод.
2. **Используйте on-demand для продакшна** — Spot дешевле, но может быть прерван. On-demand гарантирует доступность.
3. **Регулярно делайте резервные копии** — Ваш `~/.openclaw/workspace/` содержит всю память и конфиги.
4. **Следите за расходами** — Регулярно проверяйте панель Clore. При возможности настройте оповещения о расходах.
5. **Используйте Control UI** — Доступ через SSH-туннель на `http://127.0.0.1:18789/` для управления через веб-интерфейс.
6. **Комбинируйте с API-моделями** — Даже с GPU-сервером используйте Claude/GPT через API для основного агента и локальные модели для отдельных задач (эмбеддинги, транскрипция).

***

## Дальнейшее чтение

* [С чего начать с OpenClaw](https://docs.openclaw.ai/start/getting-started)
* [Руководство по VPS-хостингу OpenClaw](https://docs.openclaw.ai/install/vps)
* [Настройка OpenClaw в Docker](https://docs.openclaw.ai/install/docker)
* [Ollama на Clore](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/ollama)
* [vLLM на Clore](https://docs.clore.ai/guides/guides_v2-ru/yazykovye-modeli/vllm)
* [Сравнение GPU и ценообразование](https://docs.clore.ai/guides/guides_v2-ru/nachalo-raboty/gpu-comparison)


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://docs.clore.ai/guides/guides_v2-ru/drugie-nagruzki/openclaw-on-clore.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
