Resumen

Herramientas de codificación AI autohospedadas en GPUs de Clore.ai

Alquila una GPU en Clore.ai, ejecuta un LLM local mediante Ollama o vLLM y conecta un asistente de codificación: obtienes un entorno de desarrollo de IA completamente privado donde tu código nunca abandona la máquina. Sin claves API que gestionar, sin límites de tokens, sin datos enviados a servidores de terceros.

Cómo funciona

GPU de Clore.ai  →  Ollama / vLLM (LLM local)  →  Herramienta de codificación (Aider, TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               se conecta mediante localhost:11434 o :8000
  1. Alquila una GPU en clore.ai/marketplacearrow-up-right — RTX 3090 (0,30–1 $/día) o RTX 4090 (0,50–2 $/día)

  2. Despliega un LLMollama run deepseek-r1:32b o inicia vLLM con cualquier modelo orientado a codificación

  3. Lanza tu herramienta de codificación — se comunica con el LLM a través de localhost, completando código, escribiendo pruebas y refactorizando

Guías disponibles

Guía
Herramienta
Descripción

Aider

Programador asistente de IA basado en terminal: edita archivos en tu repositorio directamente mediante lenguaje natural

Tabby

Servidor de autocompletado de código autoalojado con extensiones para IDE (VS Code, JetBrains)

¿Por qué autoalojar en Clore.ai?

  • Privacidad — tu base de código permanece en la instancia alquilada, no en los servidores de OpenAI/Anthropic

  • Sin límites de tasa — completaciones ilimitadas a la velocidad de la GPU

  • Control de costos — paga por hora/día, apaga cuando esté inactiva

  • Elección de modelo — ejecuta cualquier modelo abierto: DeepSeek-R1, Qwen 2.5 Coder, CodeLlama, StarCoder2

Última actualización

¿Te fue útil?