n8n en 2026: automatización visual con IA nativa
El modelo de precios de Zapier tiene una trampa que muchos descubren demasiado tarde: cada paso de tu workflow cuenta como una "tarea". Un workflow de 10 pasos que se ejecuta 1.000 veces al mes te consume 10.000 tareas, no 1.000. Con n8n, esas mismas 1.000 ejecuciones cuestan 1.000 créditos, independientemente de cuántos pasos tenga el workflow. Es un detalle que parece menor hasta que llega la factura.
n8n acaba de superar los 176.000 stars en GitHub y en 2026 ha dado un salto claro hacia la automatización con IA nativa: agentes con memoria, nodos LangChain integrados, soporte para OpenAI, Anthropic, Hugging Face y Cohere, todo dentro del mismo canvas visual. Esta guía explica cómo funciona en la práctica, cuándo tiene sentido frente a las alternativas, y cómo construir tu primer workflow con un agente LLM.
TL;DR
- n8n es una plataforma de automatización open-source con más de 500 integraciones y nodos de IA nativos para construir agentes con LLMs, memoria y herramientas externas.
- Su modelo de precios por ejecución (no por paso) lo hace significativamente más barato que Zapier en workflows complejos con alto volumen.
- El self-hosting en un VPS básico cuesta entre 5 y 10€/mes y da control total sobre los datos, sin límites artificiales de ejecuciones.
¿Qué es n8n y qué lo diferencia en 2026?
n8n es una plataforma de automatización de workflows basada en nodos que permite conectar aplicaciones, APIs y modelos de lenguaje mediante un editor visual. El nombre viene de "node to node", que describe bien su arquitectura: cada bloque del workflow es un nodo que recibe datos, los transforma o los envía a otro sistema.
Lo que ha cambiado en 2026 es la profundidad de la integración con IA. Ya no se trata solo de añadir una llamada a la API de OpenAI como si fuera cualquier otro HTTP Request. n8n tiene ahora un nodo específico llamado "AI Agent" que implementa el patrón ReAct: el modelo razona, decide qué herramienta usar, ejecuta la herramienta, recibe el resultado y vuelve a razonar hasta generar una respuesta. Todo esto ocurre dentro del workflow visual, con logs en tiempo real y la posibilidad de hacer replay de pasos individuales sin relanzar el workflow completo.
Los nodos de IA se construyen sobre LangChain, lo que permite encadenar prompts, gestionar memoria conversacional y conectar con vector stores para RAG. Puedes elegir el modelo que quieras: GPT-4o, Claude 3.5 Sonnet, Gemini, o modelos open-source mediante Ollama si tienes el hardware.
Arquitectura de un workflow con agente IA en n8n
Un agente básico en n8n sigue esta estructura:
Trigger (Webhook / Chat / Cron)
└─> AI Agent Node
├─> LLM (OpenAI / Anthropic / Gemini)
├─> Memory (Buffer / Vector Store)
└─> Tools (HTTP Request / DB / Code Node)
└─> Response Node (Slack / Email / Webhook)
El nodo "AI Agent" actúa como orquestador. Le defines el LLM que debe usar, le conectas nodos de memoria para que recuerde el contexto de conversaciones anteriores, y le das "herramientas" que son simplemente otros nodos de n8n: una llamada HTTP, una consulta a PostgreSQL, un bloque de código JavaScript. El agente decide en tiempo de ejecución qué herramienta invocar y con qué parámetros.
Este diseño tiene una ventaja concreta frente a construir el mismo agente en Python: el flujo de datos entre herramientas es visible en el canvas, los errores aparecen en el nodo exacto donde ocurren, y puedes iterar sin tocar código.
Construir un agente de soporte en n8n: paso a paso
El ejemplo siguiente crea un agente que responde preguntas sobre pedidos consultando una base de datos PostgreSQL. Es representativo de la mayoría de casos de uso reales en equipos de operaciones.
Paso 1: instalar n8n con Docker
# docker-compose.yml para desarrollo local
version: '3'
services:
n8n:
image: n8nio/n8n
restart: always
ports:
- "5678:5678"
environment:
- N8N_BASIC_AUTH_ACTIVE=true
- N8N_BASIC_AUTH_USER=admin
- N8N_BASIC_AUTH_PASSWORD=${N8N_PASSWORD}
- OPENAI_API_KEY=${OPENAI_API_KEY}
volumes:
- n8n_data:/home/node/.n8n
volumes:
n8n_data:
# Levantar el contenedor
docker-compose up -d
# Acceder en el navegador
# http://localhost:5678
Para producción, añade un proxy Nginx con TLS y cambia el volumen a una ruta con backups automatizados. Los requisitos mínimos son 1 vCPU y 1 GB de RAM; para workflows con agentes LLM que procesan contextos largos, 2 vCPUs y 4 GB son más razonables.
Paso 2: configurar el workflow en el editor visual
En el canvas, añade los nodos en este orden:
- Webhook node como trigger. Esto te da un endpoint al que puedes enviar preguntas via POST.
- AI Agent node. Selecciona "Tools Agent" como tipo, que implementa el patrón ReAct.
- Desde el submenú del AI Agent, conecta un OpenAI Chat Model node e introduce tu API key. GPT-4o-mini funciona bien para consultas de soporte y cuesta aproximadamente 10 veces menos que GPT-4o.
- Conecta un Window Buffer Memory node para mantener el contexto de las últimas N respuestas.
- Añade un PostgreSQL node como herramienta, configurado para ejecutar la query que el agente construya.
- Conecta un Respond to Webhook node al final para devolver la respuesta al cliente.
Paso 3: definir el system prompt del agente
El system prompt del nodo AI Agent controla el comportamiento del agente. Un ejemplo funcional:
Eres un asistente de soporte para pedidos de comercio electrónico.
Tienes acceso a una herramienta de consulta SQL sobre la base de datos de pedidos.
Tabla disponible: orders (id, customer_email, status, created_at, total_amount)
Cuando el usuario pregunte por un pedido:
1. Construye la query SQL apropiada usando su email o ID de pedido.
2. Ejecuta la herramienta de consulta.
3. Responde en lenguaje natural con los datos obtenidos.
Si no encuentras el pedido, indica que no existe y pide que verifiquen el email.
Nunca ejecutes queries que modifiquen datos (INSERT, UPDATE, DELETE).
El agente genera la query en función de la pregunta del usuario, la ejecuta contra PostgreSQL mediante el nodo herramienta, y formula la respuesta. Sin código adicional.
Paso 4: probar el workflow
# Enviar una pregunta de prueba al webhook
curl -X POST https://tu-dominio.com/webhook/soporte \
-H "Content-Type: application/json" \
-d '{"message": "¿Cuál es el estado del pedido con email cliente@ejemplo.com?"}'
# Respuesta esperada del agente:
# {
# "response": "El pedido más reciente de cliente@ejemplo.com
# tiene estado 'enviado' y fue creado el 15/02/2026.
# El importe total es 89,99€."
# }
Comparativa de costes: n8n vs Zapier vs Make
El modelo de precios es el factor diferenciador más importante entre las tres plataformas. La tabla siguiente usa datos publicados a febrero de 2026:
| Escenario | Zapier | Make | n8n Cloud | n8n Self-hosted |
|---|---|---|---|---|
| 500 ejecuciones/mes (simple) | ~20€/mes | ~9€/mes | 20€/mes | ~5€/mes (VPS) |
| 15.000 ejecuciones/mes (complejo) | 300€+/mes | 50€/mes | 50€/mes | ~10€/mes (VPS) |
| 100K ejecuciones/mes (agentes IA) | 1.500€+/mes | 300€+/mes | ~120€/mes | ~40€/mes (servidor) |
La diferencia clave: Zapier cobra por tarea (cada paso del workflow cuenta), Make cobra por operación (similar), n8n cobra por ejecución completa. Un workflow de 8 pasos que se ejecuta 2.000 veces al mes consume 16.000 tareas en Zapier pero solo 2.000 créditos en n8n. A escala, eso es la diferencia entre 300€ y 50€.
Sobre cuándo elegir cada opción:
- Zapier: equipo no técnico, menos de 1.000 ejecuciones/mes, no necesitas IA avanzada ni datos sensibles.
- Make: lógica visual compleja, equipo mixto técnico/no técnico, volumen moderado.
- n8n Cloud: equipo técnico, workflows con agentes LLM, necesitas control sin gestionar servidores.
- n8n Self-hosted: datos sensibles (GDPR, sanidad, finanzas), volumen alto, tienes capacidad para mantener la infraestructura.
Patrones de automatización con LLMs en producción
Más allá del agente de soporte, estos son los patrones que más uso en entornos reales con n8n:
Pipeline de enriquecimiento de leads. Un trigger de webhook recibe un email de contacto, el nodo LLM extrae industria, tamaño de empresa y caso de uso probable del texto libre, y el resultado se escribe en el CRM. Reemplaza formularios largos con un campo de texto libre procesado por IA.
Resumen de documentos con clasificación. Un workflow programado (Cron trigger) revisa una carpeta de Google Drive, descarga los PDFs nuevos, los fragmenta con el nodo de texto, los pasa por un LLM para clasificación y resumen, y guarda el resultado en Notion. Útil para equipos legales o de compliance que manejan contratos.
Monitorización con alertas inteligentes. Un webhook recibe alertas de infraestructura (Prometheus, Grafana), el agente LLM analiza el contexto del error, consulta el runbook en Confluence mediante RAG y genera un resumen accionable que envía a Slack con la causa probable y los pasos sugeridos. Reduce el tiempo de triage en incidencias repetitivas.
En producción
Hay varios aspectos que cambian entre el tutorial y un despliegue real.
Gestión de credenciales. n8n cifra las credenciales en su base de datos, pero en self-hosting eres responsable de proteger esa base de datos. Usa variables de entorno para los secretos, nunca los introduzcas directamente en el docker-compose. En producción, el plan Cloud Pro (50€/mes) incluye soporte para secretos externos.
Costes de API de LLMs. Un agente ReAct con GPT-4o puede consumir varios miles de tokens por interacción cuando el contexto es largo. En escenarios de soporte con 500 conversaciones al día, los costes de la API pueden superar los 30-50€/mes fácilmente. GPT-4o-mini o Claude 3.5 Haiku reducen ese coste en un orden de magnitud para casos de uso donde la complejidad de razonamiento no es crítica. Monitoriza el uso desde el primer día.
Timeouts en workflows con LLMs. Los agentes que encadenan varias llamadas al LLM pueden tardar 30-60 segundos. Si tu trigger es un webhook sincrónico, el cliente puede recibir un timeout antes de la respuesta. La solución es usar el patrón asíncrono: el webhook responde inmediatamente con un ID de tarea y el resultado se entrega via callback o polling.
Errores y reintentos. Configura siempre un workflow de error separado en n8n. Cuando un nodo falla, el workflow de error puede notificar por Slack, guardar el payload en una tabla de reintentos y relanzar la ejecución automáticamente con backoff exponencial. Sin esto, los errores silenciosos en producción son difíciles de detectar.
// Configuración de reintentos recomendada en nodos críticos
{
"continueOnFail": false,
"retryOnFail": true,
"maxTries": 3,
"waitBetweenTries": 5000
}
Escalabilidad. Una instancia de n8n en self-hosted con 2 vCPUs y 4 GB de RAM gestiona sin problema 50-100 workflows concurrentes para la mayoría de casos de uso de un equipo pequeño o mediano. Para mayor volumen, n8n soporta modo queue con Redis y workers separados, aunque esa configuración requiere más trabajo de mantenimiento.
Errores comunes al integrar LLMs en n8n
Error: el agente genera queries SQL incorrectas. Causa: el system prompt no describe con suficiente detalle el esquema de la base de datos. Solución: incluye el DDL completo de las tablas relevantes en el system prompt o usa un nodo de búsqueda en vector store para recuperar solo el esquema necesario.
Error: el workflow falla intermitentemente con "Rate limit exceeded". Causa: múltiples ejecuciones concurrentes alcanzan el límite de la API del LLM. Solución: activa la opción de reintentos automáticos en el nodo LLM y considera distribuir las ejecuciones en el tiempo si el trigger es un Cron con alto volumen.
Error: la memoria del agente mezcla contexto de distintos usuarios. Causa: se usa el mismo ID de sesión para todas las conversaciones. Solución: genera un ID de sesión único por usuario (por ejemplo, su email hasheado) y pásalo como parámetro al nodo Window Buffer Memory.
Preguntas frecuentes
¿Necesito saber programar para usar n8n con IA?
Para los casos de uso más comunes no es necesario. Los nodos de IA, memoria y herramientas se configuran visualmente. Sin embargo, conocer JavaScript o Python básico te permite añadir un nodo de código cuando necesitas transformaciones de datos que no cubre ningún nodo existente. En la práctica, cuanto más compleja es la lógica de tu agente, más útil es tener esa base.
¿Es n8n adecuado para datos sensibles o regulados?
En modalidad self-hosted, sí. Los datos nunca salen de tu infraestructura, las credenciales se cifran localmente y puedes configurar acceso por red privada. Es la opción que eligen equipos en sanidad, finanzas y entornos con requisitos GDPR estrictos. La modalidad cloud, en cambio, implica que los datos de ejecución pasan por los servidores de n8n, lo que puede no ser aceptable en ciertos sectores.
¿Qué diferencia hay entre el nodo HTTP Request y el nodo AI Agent para llamar a una API de LLM?
El nodo HTTP Request hace una llamada simple a la API y devuelve la respuesta, sin lógica adicional. El nodo AI Agent implementa el ciclo ReAct completo: razona, decide qué herramienta usar, llama a la herramienta, procesa el resultado y decide si necesita más iteraciones antes de responder. Si solo necesitas una llamada simple a un LLM para transformar texto, el nodo "OpenAI" o "Anthropic" directo es suficiente y más eficiente.
Conclusión
n8n en 2026 no es solo una alternativa open-source a Zapier: es una plataforma donde puedes construir agentes LLM con el mismo canvas visual que usas para conectar Slack con Google Sheets. La integración con LangChain, la memoria conversacional nativa y el nodo AI Agent con patrón ReAct reducen la distancia entre "automatización simple" y "agente autónomo" a una cuestión de añadir más nodos al canvas.
El modelo de precios por ejecución hace que el argumento económico se refuerce a medida que aumenta el volumen o la complejidad. Y el self-hosting, con un VPS de 5-10€/mes, es una opción real y mantenible para equipos técnicos que necesitan control sobre sus datos.
Si ya tienes workflows en Zapier o Make que empiezan a resultar caros o que necesitan lógica más compleja, merece la pena hacer la migración en un entorno de pruebas antes de comprometerte. La curva de aprendizaje existe, pero es más corta de lo que parece.
¿Has construido algún workflow con agentes LLM en n8n? Me interesa saber qué casos de uso has resuelto y qué problemas has encontrado en producción. Puedes contármelo en los comentarios o en Twitter @sergiomarquezp_.
En el próximo artículo exploraré Dify, la plataforma que compite directamente con n8n para workflows agénticos en producción, con un enfoque más centrado en la lógica de agente que en la integración con aplicaciones externas.