Automatización

Ejemplo 1: Conexión con una IA Local (LMStudio + n8n)

Este es un ejemplo sencillo de cómo realizar peticiones desde un nodo de n8n hacia una IA ejecutada en local.

Si dispones de un equipo con recursos suficientes, puedes ejecutar modelos de IA de forma local y conectarlos directamente con n8n . Esto permite crear y probar workflows integrados con IA sin depender de servicios externos ni incurrir en costes por consumo de tokens y en un entorno de pruebas privado.

n8n: https://github.com/n8n-io/n8n

Ejemplo sencillo:

Dado que el servidor de LMStudio se ejecutará en el host principal, para que el docker pueda realizar peticiones, es necesario sustituir 127.0.0.1 por host.docker.internal.

LMStudio

Para ello, habrá que cargar y ejecutar el servidor con el modelo deseado en LMStudio.

Este servidor por defecto se encontrará en: http://127.0.0.1:1234

Se realiza una petición POST contra el endpoint /v1/chat/completions.

n8n

Se crea un workflow y se incluye un nodo de HTTP Request.

En dicho nodo se configura:

{
  "model": "google/gemma-3-12b",
  "messages": [
    {
      "role": "user",
      "content": "Tell me a hacker freak joke"
    }
  ]
}

Si en el contenido se quiere incluir un input desde otro nodo, por ejemplo, un chat, se puede:

  • Incluir un nodo previo de Chat.

  • Editar la petición HTTP y ejecutar el nodo anterior.

  • Arrastrar la variable con el contenido al valor de la clave "content" del JSON.

Ejemplo de flujo

Si se quiere cargar directamente el ejemplo del flujo:

  1. Clona el repo.

  2. Importa el .json en n8n (opción Import workflow).

https://github.com/xtormin/n8n-pentest-workflows/blob/5f70e5bbf782ac6f0435ffb98e28b674dabec7b3/workflows/local-AI-connection.json

Última actualización

¿Te fue útil?