Codificación AI Continue.dev
Potencia Continue.dev con GPUs de Clore.ai — ejecuta CodeLlama 34B, DeepSeek Coder y Qwen2.5-Coder localmente en alquileres de GPU baratos para asistencia privada de codificación con IA.
Resumen
Propiedad
Detalles
Modelos recomendados para programación
Modelo
VRAM
Fortaleza
Notas
Requisitos
Requisitos del servidor Clore.ai
Nivel
GPU
VRAM
RAM
Disco
Precio
Modelos
Requisitos locales (tu máquina)
Inicio rápido
Parte 1: Configurar el backend de Clore.ai
Opción A — Backend Ollama (recomendado para la mayoría de usuarios)
Opción B — Backend vLLM (alto rendimiento / compatible con OpenAI)
Opción C — Backend TabbyML (especialista en autocompletar FIM)
Parte 2: Instalar la extensión Continue.dev
Parte 3: Configurar Continue.dev para usar Clore.ai
Configuración
Configuración de túnel SSH (acceso remoto seguro)
Túnel persistente con autossh
Cargar múltiples modelos para diferentes tareas
Indexado de la base de código (RAG para tu repo)
Aceleración por GPU
Monitorear el rendimiento de inferencia
Rendimiento esperado por GPU
GPU
Modelo
Contexto
Tokens/seg (aprox.)
Ajusta Ollama para mejor rendimiento
Consejos y mejores prácticas
Usa modelos diferentes para tareas distintas
Comparación de costos
Solución
Costo mensual (uso 8 h/día)
Privacidad
Calidad del modelo
Apaga cuando no estés programando
Usa comandos personalizados de Continue.dev
Solución de problemas
Problema
Causa probable
Solución
Comandos de depuración
Validación de configuración de Continue.dev
Lecturas adicionales
Última actualización
¿Te fue útil?