Aperçu

Outils de codage IA auto-hébergés sur les GPU Clore.ai

Louez un GPU sur Clore.ai, exécutez un LLM local via Ollama ou vLLM, et connectez un assistant de codage — vous obtenez un environnement de développement IA entièrement privé où votre code ne quitte jamais la machine. Pas de clés API à gérer, pas de limites de tokens, pas de données envoyées à des serveurs tiers.

Comment ça marche

Clore.ai GPU  →  Ollama / vLLM (LLM local)  →  Outil de codage (Aider, TabbyML)
                     ↑                              ↑
              RTX 4090 / A100               se connecte via localhost:11434 ou :8000
  1. Louez un GPU sur clore.ai/marketplacearrow-up-right — RTX 3090 (0,30–1 $/jour) ou RTX 4090 (0,50–2 $/jour)

  2. Déployez un LLMollama run deepseek-r1:32b ou lancez vLLM avec n’importe quel modèle orienté codage

  3. Lancez votre outil de codage — il communique avec le LLM via localhost, complète le code, écrit des tests et refactore

Guides disponibles

Guide
Outil
Description

Aider

Programmeur IA en binôme en mode terminal — modifie les fichiers de votre dépôt directement via le langage naturel

Tabby

Serveur d’auto‑complétion de code auto‑hébergé avec extensions IDE (VS Code, JetBrains)

Pourquoi auto‑héberger sur Clore.ai ?

  • Confidentialité — votre base de code reste sur l’instance louée, pas sur les serveurs d’OpenAI/Anthropic

  • Pas de limites de débit — complétions illimitées à la vitesse du GPU

  • Contrôle des coûts — payez à l’heure/jour, éteignez lorsque inactif

  • Choix du modèle — exécutez n’importe quel modèle open : DeepSeek-R1, Qwen 2.5 Coder, CodeLlama, StarCoder2

Mis à jour

Ce contenu vous a-t-il été utile ?