AI-кодирование Continue.dev
Запустите Continue.dev на GPU Clore.ai — запускайте CodeLlama 34B, DeepSeek Coder и Qwen2.5-Coder локально на дешёвых арендуемых GPU для приватной помощи в кодировании.
Обзор
Свойство
Детали
Рекомендуемые модели для кодирования
Модель
VRAM
Сильная сторона
Примечания
Требования
Требования к серверу Clore.ai
Тариф
GPU
VRAM
ОЗУ
Диск
Цена
Модели
Локальные требования (ваша машина)
Быстрый старт
Часть 1: Настройка бекенда Clore.ai
Вариант A — бекенд Ollama (рекомендуется для большинства пользователей)
Вариант B — бекенд vLLM (высокая пропускная способность / совместимый с OpenAI)
Вариант C — бекенд TabbyML (специалист по FIM автодополнению)
Часть 2: Установка расширения Continue.dev
Часть 3: Настройка Continue.dev для использования Clore.ai
Конфигурация
Настройка SSH-туннеля (безопасный удалённый доступ)
Постоянный туннель с autossh
Загрузка нескольких моделей для разных задач
Индексирование кодовой базы (RAG для вашего репозитория)
Ускорение с помощью GPU
Мониторинг производительности инференса
Ожидаемая производительность по GPU
GPU
Модель
Контекст
Токенов/сек (примерно)
Настройка Ollama для лучшей производительности
Подсказки и лучшие практики
Используйте разные модели для разных задач
Сравнение стоимости
Решение
Ежемесячная стоимость (использование 8 ч/день)
Конфиденциальность
Качество модели
Выключайте, когда не кодируете
Используйте пользовательские команды Continue.dev
Устранение неполадок
Проблема
Вероятная причина
Решение
Команды для отладки
Валидация конфигурации Continue.dev
Дополнительное чтение
Последнее обновление
Это было полезно?