Agente de AI en un día: un prototipo local sin nube ni desarrolladores
En una jornada laboral se puede montar un agente de AI local funcional usando Ollama para desplegar modelos y n8n para la automatización. Este prototipo es adec

Cuando la dirección pide implementar un agente de IA en un proceso empresarial, los requisitos suelen ser contradictorios: los datos no pueden enviarse a la nube, el presupuesto es casi nulo, faltan desarrolladores y el resultado es necesario mañana. En la práctica, es viable. En un día laboral, puedes montar un prototipo local de un agente de IA funcional utilizando herramientas abiertas como Ollama y n8n. Sin necesidad de un equipo de especialistas, suscripciones en la nube o arquitectura compleja.
Por qué local y no en la nube
Las APIs LLM en la nube como OpenAI son convenientes, pero los costos crecen con cada solicitud y los datos confidenciales de la empresa van a terceros. Esto es arriesgado para organizaciones con requisitos de confidencialidad. Un agente local en la plataforma Ollama funciona directamente en el ordenador o servidor de la empresa — los datos nunca salen del perímetro y solo pagas por la electricidad.
Principales ventajas del enfoque local:
- Los datos permanecen dentro de la empresa, no van a la nube
- Sin facturas de API — solo costos únicos de equipamiento
- Puedes funcionar en una red cerrada sin internet constante
- Independencia total de servicios en la nube y sus interrupciones
- Más económico para escalar con grandes volúmenes de solicitudes
Ollama y n8n: dos herramientas para el montaje
Ollama es el empaquetamiento de grandes modelos de lenguaje en un contenedor. Descargas un modelo ya preparado (Llama 2, Mistral, Deepseek, Phi y otros), lo ejecutas a través de Docker y el modelo está disponible a través de una API REST. Sin Python, sin configuración CUDA, sin conflictos de dependencias. En 15 minutos, el modelo está listo para responder a la primera solicitud.
n8n es una plataforma de automatización sin código. Piénsalo como un constructor de flujos de trabajo. Conectas Ollama como un nodo en el editor visual, vinculas fuentes de datos (CRM, Slack, correo electrónico, bases de conocimiento, archivos), creas una cadena de acciones — y el agente comienza a funcionar. Sin necesidad de escribir código, todo ocurre en una interfaz de arrastrar y soltar.
De cero a demostración funcional en un día
Aquí hay un cronograma aproximado de cómo organizar esto en un día laboral:
- 09:00 — instalación de Ollama y descarga del modelo elegido (40–50 minutos)
- 09:50 — configuración de la API REST local, prueba del modelo vía curl (30 minutos)
- 10:20 — instalación y primer lanzamiento de n8n en la misma máquina (30 minutos)
- 10:50 — creación del primer flujo de trabajo en n8n, conexión de Ollama como nodo (1 hora)
- 11:50 — configuración del prompt, pruebas con ejemplos simples (45 minutos)
- 12:35 — integración con una fuente de datos (por ejemplo, carga de documentos o conexión a Slack) (1 hora)
- 13:35 — depuración, corrección de errores, verificación de casos límite (1 hora)
- 14:35 — demostración del prototipo funcional a la dirección
Este es un cronograma realista si no te pierdes en la búsqueda de la perfección. Lo principal es demostrar que la idea funciona.
Cuándo es necesario RAG: búsqueda en tus propios datos
Si el agente debe responder basándose en información interna de la empresa — informes, políticas, documentación técnica, preguntas frecuentes, historial de ventas — añade RAG (generación aumentada por recuperación). n8n puede cargar documentos, crear sus incrustaciones (representaciones vectoriales) y con cada pregunta del usuario, buscar fragmentos relevantes de tu base de datos. El agente se vuelve significativamente más inteligente porque operará no solo con conocimiento del entrenamiento, sino con datos específicos de la empresa.
Lo que esto significa en la práctica
Los agentes de IA locales se transforman de experimentos en herramientas de trabajo. Una empresa de cualquier tamaño — desde startup hasta corporación — puede montar un agente funcional en un día que funcione con datos y procesos internos, sin el riesgo de fugas a la nube y sin facturas enormes. Esto es especialmente importante para el sector financiero, organismos gubernamentales y manufactura, donde la confidencialidad de datos no es una preferencia, sino un requisito riguroso de la ley y la política de seguridad.