bolt-autoAutomatización

Ejemplo 1: Conexión con una IA Local (LMStudio + n8n)

circle-info

Este es un ejemplo sencillo de cómo realizar peticiones desde un nodo de n8n hacia una IA ejecutada en local.

Si dispones de un equipo con recursos suficientes, puedes ejecutar modelos de IA de forma local y conectarlos directamente con n8n . Esto permite crear y probar workflows integrados con IA sin depender de servicios externos ni incurrir en costes por consumo de tokens y en un entorno de pruebas privado.

n8n: https://github.com/n8n-io/n8narrow-up-right

Ejemplo sencillo:

Dado que el servidor de LMStudio se ejecutará en el host principal, para que el docker pueda realizar peticiones, es necesario sustituir 127.0.0.1 por host.docker.internal.

Si se desea realizar la conexión desde una VM en vez de desde el host principal, se puede usar el plugin remote-lmstudio, que permite exponer el puerto en la red (ej: http://192.168.1.100:1234/): https://lmstudio.ai/lmstudio/remote-lmstudioarrow-up-right

LMStudio

Para ello, habrá que cargar y ejecutar el servidor con el modelo deseado en LMStudio.

Este servidor por defecto se encontrará en: http://127.0.0.1:1234arrow-up-right

Se realiza una petición POST contra el endpoint /v1/chat/completions.

n8n

Se crea un workflow y se incluye un nodo de HTTP Request.

En dicho nodo se configura:

Si en el contenido se quiere incluir un input desde otro nodo, por ejemplo, un chat, se puede:

  • Incluir un nodo previo de Chat.

  • Editar la petición HTTP y ejecutar el nodo anterior.

  • Arrastrar la variable con el contenido al valor de la clave "content" del JSON.

Ejemplo de flujo

Si se quiere cargar directamente el ejemplo del flujo:

  1. Clona el repo.

  2. Importa el .json en n8n (opción Import workflow).

https://github.com/xtormin/n8n-pentest-workflows/blob/5f70e5bbf782ac6f0435ffb98e28b674dabec7b3/workflows/local-AI-connection.jsonarrow-up-right

Última actualización