Constructor de Agentes AI Flowise

Despliega Flowise en Clore.ai — crea y aloja chatbots conversacionales LLM visuales, agentes de IA y canalizaciones RAG en servidores GPU en la nube asequibles con interfaz sin código de arrastrar y soltar y endpoints de API instantáneos.

Resumen

Flowisearrow-up-right es una herramienta de código abierto, de arrastrar y soltar, para construir aplicaciones impulsadas por LLM sin escribir código. Con más de 35K estrellas en GitHub y más de 5 millones de descargas en Docker Hub, Flowise se ha convertido en una de las herramientas de IA autoalojadas más desplegadas en el ecosistema. Permite a los equipos crear chatbots, sistemas RAG, agentes de IA y flujos de trabajo automatizados a través de una interfaz visual intuitiva — y desplegarlos como endpoints REST API en minutos.

Flowise está construido sobre LangChain.js y proporciona un lienzo basado en nodos donde conectas componentes: LLMs, bases de datos vectoriales, cargadores de documentos, almacenes de memoria, herramientas y agentes. Cada flujo genera automáticamente un widget de chat y un endpoint API embebible que puedes integrar en cualquier aplicación.

Capacidades clave:

  • Constructor de flujos de arrastrar y soltar — Orquestación visual de LLM con más de 100 nodos preconstruidos

  • Creación de chatbots — Widgets de chat embebibles para sitios web y aplicaciones

  • Pipelines RAG — Conecta visualmente cargadores de documentos, embebedores y almacenes vectoriales

  • Soporte multiagente — Construye jerarquías de agentes con uso de herramientas y delegación

  • API instantánea — Cada flujo genera un /api/v1/prediction/<flowId> endpoint

  • Nodos LangChain — Acceso completo al ecosistema LangChain.js

  • Administrador de credenciales — Gestiona de forma centralizada claves de API, conexiones a bases de datos

¿Por qué Clore.ai para Flowise?

Flowise es un servidor Node.js ligero — maneja la orquestación, no el cómputo. Emparejarlo con Clore.ai permite:

  • Inferencia de modelos local — Ejecuta Ollama o vLLM en el mismo servidor GPU, eliminando costos de API

  • Procesamiento privado de documentos — Canalizaciones RAG que nunca envían datos a servicios externos

  • Despliegue persistente — Hosting de chatbot y API siempre activo a precios de servidor GPU

  • Rentable a escala — Construye plataformas de chatbots multiinquilino sin tarifas por llamada a la API

  • Hosting AI full-stack — Flowise + Ollama + Qdrant/Chroma todo en un servidor asequible


Requisitos

Flowise en sí es una aplicación Node.js con requisitos mínimos de recursos. GPU solo es necesaria si añades un backend LLM local.

Configuración
GPU
VRAM
RAM
Almacenamiento
Precio estimado

Solo Flowise (APIs externas)

Ninguna

2–4 GB

10 GB

~$0.03–0.08/h

+ Ollama (Llama 3.1 8B)

RTX 3090

24 GB

16 GB

40 GB

~$0.20/h

+ Ollama (Mistral 7B + embeddings)

RTX 3090

24 GB

16 GB

30 GB

~$0.20/h

+ Ollama (Qwen2.5 32B)

RTX 4090

24 GB

32 GB

60 GB

~$0.35/h

+ vLLM (producción)

A100 80GB

80 GB

64 GB

100 GB

~$1.10/h

Nota: Flowise se ejecuta cómodamente en cualquier servidor de Clore.ai. GPU solo se necesita si deseas inferencia local gratuita. Ver el Guía de comparación de GPU.

Requisitos del servidor Clore.ai:

  • Docker Engine (preinstalado en todas las imágenes de Clore.ai)

  • NVIDIA Container Toolkit (solo para GPU/Ollama)

  • Puerto 3000 accesible (o mapeado en el panel de Clore.ai)

  • Mínimo 2 GB de RAM libre, 10 GB de espacio en disco


Inicio rápido

Paso 1: Reserva un servidor en Clore.ai

En el mercado de Clore.aiarrow-up-right:

  • Para uso solo con API: Cualquier servidor, filtrar por RAM ≥ 4 GB

  • Para LLM local: Filtrar GPU ≥ 24 GB de VRAM

  • Asegúrate de que Docker esté habilitado en la plantilla

Conéctate vía SSH:

Paso 2: Ejecuta Flowise (comando único)

Eso es todo. Flowise estará disponible en http://<server-ip>:3000 en 20–30 segundos.

Paso 3: Verifica que esté en ejecución

Paso 4: Abre la UI

Navega a http://<server-ip>:3000 en tu navegador.

Mapeo de puertos en Clore.ai: Asegúrate de que el puerto 3000 esté reenviado en la configuración de tu servidor Clore.ai. Ve a detalles del servidor → Puertos → confirma 3000:3000 está mapeado. Algunas plantillas solo exponen SSH por defecto.


Configuración

Almacenamiento Persistente

Monta volúmenes para que tus flujos, credenciales y cargas sobrevivan a reinicios del contenedor:

Autenticación

Protege tu instancia de Flowise con usuario/contraseña:

Nota de seguridad: Siempre establece credenciales cuando expongas Flowise públicamente en Clore.ai. Sin autenticación, cualquiera con la IP de tu servidor puede acceder a tus flujos y claves de API.

Referencia completa de variables de entorno

Variable
Descripción
Valor por defecto

PUERTO

Puerto del servidor web

3000

FLOWISE_USERNAME

Nombre de usuario administrador (habilita autenticación)

— (sin autenticación)

FLOWISE_PASSWORD

Contraseña del administrador

FLOWISE_SECRETKEY_OVERWRITE

Clave de cifrado para credenciales

Generada automáticamente

DATABASE_TYPE

sqlite o mysql o postgres

sqlite

DATABASE_PATH

Ruta de almacenamiento SQLite

/root/.flowise

LOG_LEVEL

error, warn, info, debug

info

TOOL_FUNCTION_BUILTIN_DEP

Builtins de Node.js permitidos en nodos de código

TOOL_FUNCTION_EXTERNAL_DEP

Paquetes npm permitidos en nodos de código

CORS_ORIGINS

Orígenes CORS permitidos para la API

*

IFRAME_ORIGINS

Orígenes permitidos para embebido en iframe

*

Docker Compose (recomendado)

El repo oficial de Flowise incluye una configuración de Docker Compose. Este es el enfoque recomendado para Clore.ai:

O crea el tuyo propio con PostgreSQL:


Aceleración por GPU (integración de LLM local)

Flowise orquesta — la GPU realiza el trabajo pesado en los servicios conectados.

Flowise + Ollama (recomendado)

Ejecuta Ollama en el mismo servidor Clore.ai y conecta Flowise a él:

En la UI de Flowise:

  1. Crea un nuevo Chatflow

  2. Agregar Ollama nodo (bajo Modelos de Chat)

    • URL base: http://host.docker.internal:11434

    • Nombre del modelo: llama3.1:8b

  3. Agregar OllamaEmbeddings nodo (para RAG)

    • URL base: http://host.docker.internal:11434

    • Nombre del modelo: nomic-embed-text

  4. Conéctate a tu almacén vectorial (Chroma, FAISS, Qdrant)

Consulta el completo guía de Ollama para la descarga de modelos y la configuración de GPU.

Flowise + vLLM (escala de producción)

Para servicio compatible con OpenAI y alto rendimiento:

Ver el guía de vLLM para cuantización y configuraciones multi-GPU.

Construyendo un chatbot RAG solo local

Flujo completo de Flowise sin llamadas a APIs externas en Clore.ai:

Nodo
Componente
Configuraciones

1

Cargador de archivos PDF

Subir documento

2

Divisor de texto recursivo

Fragmento: 1000, Solapamiento: 200

3

Embeddings de Ollama

Modelo: nomic-embed-text

4

Almacén vectorial en memoria

(o Chroma para persistencia)

5

Chat de Ollama

Modelo: llama3.1:8b

6

QA de recuperación conversacional

Tipo de cadena: Stuff

7

Memoria de búfer

Memoria basada en sesión

Exporta esto como una API e incrusta el widget de chat en cualquier sitio web.


Consejos y mejores prácticas

1. Exporta flujos regularmente

Antes de detener o cambiar servidores Clore.ai:

2. Usa el widget embebido

Cada chatflow de Flowise genera un widget de chat listo para producción:

  1. Abre tu chatflow → Haz clic </> botón (Embed)

  2. Copia el fragmento de script

  3. Pégalo en cualquier página HTML — bot de soporte al cliente instantáneo

3. Gestiona las claves de API de forma segura

Almacena todas las claves de API de LLM en el Panel de credenciales de Flowise (no codificadas en los flujos):

  • Menú → Credenciales → Añadir credencial

  • Las claves se cifran con FLOWISE_SECRETKEY_OVERWRITE

4. Limitación de tasa

Para despliegues públicos, añade limitación de tasa mediante Nginx o Caddy delante de Flowise:

5. Monitoriza el rendimiento

6. Haz copia de seguridad de la base de datos SQLite


Solución de problemas

El contenedor sale inmediatamente

La UI muestra "Conexión fallida"

Los flujos fallan con errores de LLM

Errores de migración de base de datos al actualizar

Errores de descifrado de credenciales tras reinicio

Errores CORS del widget de chat


Lecturas adicionales

Última actualización

¿Te fue útil?