Flux de travail IA n8n

Déployez n8n sur Clore.ai — auto-hébergez une puissante plateforme d'automatisation de flux de travail IA avec plus de 400 intégrations et un support natif d'agents LLM pour quelques centimes par heure.

Aperçu

n8narrow-up-right est une plateforme d'automatisation de workflows en code équitable avec 55K+ étoiles sur GitHub. Contrairement aux alternatives entièrement propriétaires (Zapier, Make), n8n vous permet d'auto-héberger l'ensemble de la pile — avec un contrôle complet des données — tout en offrant des capacités natives d'agents IA, un nœud de code JavaScript/Python et une bibliothèque croissante de plus de 400 intégrations.

Sur Clore.ai, n8n lui-même fonctionne sur CPU (aucun GPU requis), mais s'associe puissamment à des services accélérés par GPU comme Ollama ou vLLM exécutés sur le même serveur, vous offrant une pile d'automatisation IA entièrement locale. Vous pouvez avoir une instance n8n en production fonctionnant pour moins de 0,10–0,20 $/heure.

Principales capacités :

  • 🔗 400+ intégrations — Slack, GitHub, Google Sheets, Postgres, requête HTTP, webhooks, et bien plus

  • 🤖 Nœuds Agent IA — agents intégrés propulsés par LangChain avec utilisation d'outils et mémoire

  • 💻 Nœuds de code — exécutez du JavaScript ou du Python arbitraire en ligne dans les workflows

  • 🔄 Variété de déclencheurs — webhooks, planifications cron, sondage de base de données, e-mail, événements de file d'attente

  • 📊 Sous-workflows — composants de workflow modulaires et réutilisables

  • 🔐 Coffre-fort d'identifiants — stockage chiffré pour clés API et jetons OAuth

  • 🏠 Auto-hébergé — vos données ne quittent jamais votre serveur


Exigences

n8n est une application Node.js empaquetée en tant qu'image Docker. Il est CPU uniquement — aucun GPU nécessaire pour le moteur d'automatisation lui-même. Un GPU devient utile uniquement si vous exécutez un LLM local à côté (par ex. Ollama).

Configuration
GPU
VRAM
RAM système
Disque
Prix Clore.ai

Minimale (seulement n8n)

Aucun / CPU

2 Go

10 Go

≈ 0,03 $/h (CPU)

Standard

Aucun / CPU

4 Go

20 Go

≈ 0,05 $/h

+ LLM local (Ollama)

RTX 3090

24 Go

16 Go

60 Go

~0,20 $/h

+ LLM à haut débit

A100 40 GB

40 Go

32 Go

100 Go

≈ 0,80 $/h

Kit de démarrage IA (complet)

RTX 4090

24 Go

32 Go

100 Go

~0,35 $/h

Conseil : Le Kit de démarrage IA n8n auto-hébergéarrow-up-right regroupe n8n + Ollama + Qdrant + PostgreSQL en une seule pile Docker Compose. Voir Kit de démarrage IA ci-dessous.


Démarrage rapide

1. Louez un serveur Clore.ai

Connectez-vous à clore.aiarrow-up-right et déployez un serveur :

  • Instance uniquement CPU si vous avez seulement besoin de l'automatisation n8n

  • RTX 3090/4090 si vous voulez des LLM locaux via Ollama

  • Exposer le port 5678 dans les paramètres de mappage de ports de l'offre

  • Activer l'accès SSH

2. Connectez-vous au serveur

3. Option A — Démarrage minimal en conteneur unique

La façon la plus rapide de lancer n8n :

Accédez à l'interface à http://<ip-du-serveur-clore>:5678

4. Option B — Docker Compose avec Postgres (production)

Pour une utilisation en production, remplacez SQLite par Postgres :


Kit de démarrage IA (Recommandé)

Le Kit de démarrage IA n8n auto-hébergéarrow-up-right est le chemin le plus rapide vers une pile complète d'automatisation IA locale. Il inclut :

  • n8n — automatisation de workflows

  • composant Ollama — inférence LLM locale (GPU ou CPU)

  • Qdrant — base de vecteurs pour RAG

  • PostgreSQL — stockage persistant

Services après le démarrage :

Service
URL

Interface n8n

http://<ip> :5678

API Ollama

http://<ip> :11434

Interface Qdrant

http://<ip> :6333/dashboard

Remarque : Ollama avec GPU nécessite le NVIDIA Container Toolkitarrow-up-right, que les serveurs Clore.ai ont préinstallé.


Configuration

Référence des variables d'environnement

Connexion de n8n à Ollama pour les agents IA

Une fois Ollama en cours d'exécution sur le même serveur :

  1. Dans n8n, ajoutez un nouvel identifiant : API Ollama

    • URL de base : http://ollama:11434 (si vous utilisez Compose) ou http://localhost:11434

  2. Dans un workflow, ajoutez un Agent IA nœud

  3. Sous Modèle de chat, sélectionnez Ollama et choisissez votre modèle (par ex. llama3:8b)

  4. Ajoutez des outils comme Requête HTTP, Postgres, ou Code nœuds

  5. Exécutez !


Conseils et bonnes pratiques

Optimisation des coûts sur Clore.ai

Fiabilité des webhooks sur Clore.ai

Les serveurs Clore.ai ont des IP dynamiques. Si vos webhooks se cassent après un redéploiement :

Mode file d'attente pour les workflows à fort volume

Commandes CLI n8n utiles

Renforcement de la sécurité


Dépannage

Le conteneur n8n se ferme immédiatement

Les webhooks renvoient 404

Le nœud Agent IA ne peut pas joindre Ollama

"ENOSPC : plus d'espace disponible sur le périphérique"

Exécution lente des workflows


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?