Constructeur visuel IA Langflow

Déployez Langflow sur Clore.ai — créez et exécutez des pipelines IA visuels, des systèmes RAG et des flux de travail multi-agents sur une infrastructure cloud GPU abordable avec une interface no-code par glisser-déposer.

Aperçu

Langflowarrow-up-right est une plateforme open-source et low-code pour créer des applications d'IA à l'aide d'une interface visuelle par glisser-déposer. Avec plus de 55K étoiles sur GitHub et une communauté en pleine croissance, elle est devenue l'un des outils de référence pour prototyper et déployer des flux de travail alimentés par des LLM sans écrire de code standard complexe.

Langflow est construit au-dessus de LangChain et fournit un éditeur graphique où vous pouvez connecter des composants — LLM, magasins de vecteurs, chargeurs de documents, récupérateurs, agents, outils — en traçant des lignes entre des nœuds. Le pipeline résultant peut être exporté en tant que point de terminaison API, partagé comme modèle ou intégré à votre application.

Principales capacités :

  • Constructeur visuel RAG — Connectez chargeurs de documents → embeddings → magasins de vecteurs → récupérateurs en quelques minutes

  • Flux de travail multi-agents — Chaînez plusieurs agents IA avec mémoire, outils et logique de décision

  • Intégration LangChain — Accédez à l'écosystème complet LangChain via des nœuds UI

  • Place de marché de composants — Composants fournis par la communauté pour des dizaines de services

  • API-first — Chaque flow génère automatiquement un point de terminaison REST API

  • Mémoire et état — Mémoire de conversation intégrée, gestion de session

Pourquoi Clore.ai pour Langflow ?

Les besoins en calcul de Langflow sont minimes — c'est un serveur web Python gérant l'orchestration des flux de travail. Cependant, Clore.ai ouvre des cas d'utilisation puissants :

  • Embeddings auto-hébergés — Exécutez des modèles d'embeddings locaux (nomic-embed, BGE) sur GPU pour une génération de vecteurs rapide et gratuite

  • Backends LLM locaux — Connectez Langflow à Ollama ou vLLM exécutés sur le même serveur

  • Pipelines de données privées — Traitez des documents sensibles sans envoyer de données vers des API externes

  • Optimisation des coûts — Remplacez les appels d'embeddings coûteux d'OpenAI par une inférence locale gratuite

  • Flux de travail persistants — Flows longue durée sur serveurs dédiés (vs. fonctions cloud éphémères)


Exigences

Langflow lui-même est léger et basé sur le CPU. Le GPU est optionnel mais permet l'inférence locale gratuite des LLM/embeddings.

Configuration
GPU
VRAM
RAM
Stockage
Prix estimé

Langflow uniquement (backends API)

Aucun requis

4 Go

10 Go

~0,03–0,08 $/h

+ Embeddings locaux (nomic-embed)

RTX 3090

24 Go

8 Go

20 Go

~0,20 $/h

+ Ollama (Llama 3.1 8B)

RTX 3090

24 Go

16 Go

40 Go

~0,20 $/h

+ Ollama (Qwen2.5 32B)

RTX 4090

24 Go

32 Go

60 Go

~0,35 $/h

+ vLLM (RAG en production)

A100 80GB

80 Go

64 Go

100 Go

~1,10 $/h

Pour une comparaison des options GPU sur Clore.ai, voir le Guide de comparaison GPU.

Exigences logicielles sur le serveur Clore.ai :

  • Docker Engine (pré-installé sur toutes les images Clore.ai)

  • NVIDIA Container Toolkit (pré-installé sur les images GPU, requis uniquement pour les LLM locaux)

  • 10+ Go d'espace disque libre pour l'image Langflow et les données de flow

  • Accès Internet sortant (pour récupérer les images Docker et atteindre les API externes)


Démarrage rapide

Étape 1 : Connectez-vous à votre serveur Clore.ai

Réservez un serveur sur la place de marché Clore.aiarrow-up-right. Pour une utilisation Langflow uniquement, tout serveur avec ≥4 Go de RAM fonctionne. Connectez-vous via SSH :

Étape 2 : Exécutez Langflow avec Docker

Le déploiement le plus simple — commande unique :

Attendez ~30–60 secondes le démarrage, puis accédez à http://<server-ip>:7860

Étape 3 : Exposez le port 7860 sur Clore.ai

Dans le tableau de bord Clore.ai, accédez à votre serveur → section Ports → assurez-vous que 7860 est mappé. Si vous utilisez un modèle personnalisé, ajoutez 7860:7860 à votre configuration de ports avant de démarrer le serveur.

Étape 4 : Premier lancement

Lors de la première visite, Langflow :

  1. Affichera un écran de bienvenue et proposera de créer un compte (ou de passer)

  2. Proposera un ensemble de modèles de démarrage (RAG, chatbot, agent)

  3. Ouvrira l'éditeur de canevas visuel

Vous êtes prêt à créer votre premier flow !


Configuration

Stockage de données persistant

Par défaut, Langflow stocke les flows et les données à l'intérieur du conteneur. Montez un volume pour persister entre les redémarrages :

Référence des variables d'environnement

Variable
Description
Par défaut

LANGFLOW_HOST

Adresse de liaison

0.0.0.0

LANGFLOW_PORT

Port du serveur web

7860

LANGFLOW_DATABASE_URL

Chaîne de connexion à la base de données

SQLite en mémoire

LANGFLOW_SECRET_KEY

Secret de session (à définir pour la production)

Aléatoire

LANGFLOW_AUTO_LOGIN

Passer l'écran de connexion

true

LANGFLOW_SUPERUSER

Nom d'utilisateur administrateur

admin

LANGFLOW_SUPERUSER_PASSWORD

Mot de passe administrateur

LANGFLOW_WORKERS

Nombre de workers API

1

LANGFLOW_LOG_LEVEL

Verbosité des logs

critical

OPENAI_API_KEY

Précharger la clé OpenAI

Utilisation de PostgreSQL (Production)

Pour des déploiements multi-utilisateurs ou en production, utilisez PostgreSQL au lieu de SQLite :

Docker Compose (Full Stack)

Pour une configuration complète avec PostgreSQL et un proxy inverse Nginx :

Verrouillage sur une version spécifique

Pour des déploiements reproductibles, épinglez une version spécifique :


Accélération GPU (intégration de modèles locaux)

Langflow fonctionne lui-même sur CPU, mais le connecter à des services locaux accélérés par GPU sur le même serveur Clore.ai permet une inférence privée et gratuite.

Connecter Langflow à Ollama

Dans l'UI de Langflow, utilisez le composant Ollama avec :

  • URL de base : http://host.docker.internal:11434

  • Modèle : llama3.1:8b

Pour les embeddings, utilisez le OllamaEmbeddings avec :

  • URL de base : http://host.docker.internal:11434

  • Modèle : nomic-embed-text

Configuration complète d'Ollama : voir le guide Ollama

Connecter Langflow à vLLM (compatible OpenAI)

Configuration complète de vLLM : voir le guide vLLM

Construire un pipeline RAG local

Exemple de flow RAG utilisant uniquement des modèles locaux (coût API nul) :

  1. Chargeur de fichiers nœud → Charger des documents PDF/texte

  2. Fractionneur de texte nœud → Découper les documents en segments (taille : 512, recouvrement : 50)

  3. OllamaEmbeddings nœud → Générer des embeddings (modèle : nomic-embed-text)

  4. Chroma ou FAISS nœud → Stocker les vecteurs localement

  5. OllamaEmbeddings nœud → Calculer l'embedding de la requête de l'utilisateur

  6. Récupérateur nœud → Trouver les k meilleurs segments similaires

  7. composant Ollama nœud → Générer la réponse (modèle : llama3.1:8b)

  8. Sortie de chat nœud → Retourner la réponse

Ce pipeline entier s'exécute sur votre serveur Clore.ai sans appels API externes.


Conseils et bonnes pratiques

1. Exportez les flows comme sauvegardes

Avant d'arrêter votre serveur Clore.ai, exportez vos flows :

  • Dans l'UI : Flows → Tout sélectionner → Exporter → Télécharger JSON

  • Ou via l'API : curl http://localhost:7860/api/v1/flows/

Stockez-les dans un volume persistant ou téléchargez-les sur votre machine locale.

2. Utilisez l'API pour l'automatisation

Chaque flow Langflow génère un point de terminaison API. Déclenchez les flows de manière programmatique :

3. Sécurisez votre instance

Pour tout usage au-delà des tests locaux :

4. Surveillez l'utilisation de la mémoire

Langflow peut accumuler de la mémoire au fil du temps avec de nombreux flows actifs :

5. Utilisez les modèles de démarrage

Langflow est livré avec des modèles prêts pour la production :

  • RAG basique — Q&R de documents avec magasin de vecteurs

  • Chatbot avec mémoire — Agent conversationnel avec historique

  • Assistant de recherche — Recherche web + synthèse par LLM

  • Accès via : New Flow → Starter Projects

6. Mise en cache des composants

Activez la mise en cache pour accélérer les exécutions répétées de flows :

  • Dans les paramètres du flow : Activez "Cache" sur les nœuds coûteux (embeddings, appels LLM)

  • Particulièrement utile pour la recherche RAG pendant le développement


Dépannage

Le conteneur ne démarre pas

L'UI se charge mais les flows ne s'exécutent pas

Impossible de se connecter à Ollama

Erreurs de base de données au redémarrage

Exécution lente des flows

Réinitialiser le mot de passe administrateur


Lectures complémentaires

Mis à jour

Ce contenu vous a-t-il été utile ?