Continue.dev AI кодирование
Обеспечьте Continue.dev мощью GPU Clore.ai — запускайте CodeLlama 34B, DeepSeek Coder и Qwen2.5-Coder локально на дешёвой аренде GPU для приватной AI-помощи при кодировании.
Обзор
Свойство
Детали
Рекомендуемые модели для кодирования
Модель
VRAM
Сильная сторона
Примечания
Требования
Требования к серверу Clore.ai
Уровень
GPU
VRAM
ОЗУ
Диск
Цена
Модели
Локальные требования (ваша машина)
Быстрый старт
Часть 1: Настройка бэкенда Clore.ai
Вариант A — бэкенд Ollama (рекомендуется для большинства пользователей)
Вариант B — бэкенд vLLM (высокая пропускная способность / совместимый с OpenAI)
Вариант C — бэкенд TabbyML (специалист по FIM-автодополнению)
Часть 2: Установите расширение Continue.dev
Часть 3: Настройте Continue.dev для использования Clore.ai
Конфигурация
Настройка SSH-туннеля (безопасный удалённый доступ)
Постоянный туннель с autossh
Загрузка нескольких моделей для разных задач
Индексация кодовой базы (RAG для вашего репозитория)
Ускорение с помощью GPU
Отслеживание производительности инференции
Ожидаемая производительность по GPU
GPU
Модель
Контекст
Токенов/сек (прибл.)
Настройка Ollama для лучшей производительности
Советы и лучшие практики
Используйте разные модели для разных задач
Сравнение стоимости
Решение
Ежемесячная стоимость (использование 8ч/день)
Приватность
Качество модели
Отключайте, когда не кодируете
Используйте пользовательские команды Continue.dev
Устранение неполадок
Проблема
Возможная причина
Решение
Команды отладки
Проверка конфигурации Continue.dev
Дополнительные материалы
Последнее обновление
Это было полезно?