Automatización
Ejemplo 1: Conexión con una IA Local (LMStudio + n8n)
Si dispones de un equipo con recursos suficientes, puedes ejecutar modelos de IA de forma local y conectarlos directamente con n8n . Esto permite crear y probar workflows integrados con IA sin depender de servicios externos ni incurrir en costes por consumo de tokens y en un entorno de pruebas privado.
n8n: https://github.com/n8n-io/n8n
Ejemplo sencillo:
n8n: Se ejecuta en un docker (http://localhost:5678/).
LMStudio: Se ejecuta en el host principal.
Dado que el servidor de LMStudio se ejecutará en el host principal, para que el docker pueda realizar peticiones, es necesario sustituir 127.0.0.1
por host.docker.internal
.

LMStudio
Para ello, habrá que cargar y ejecutar el servidor con el modelo deseado en LMStudio.
Este servidor por defecto se encontrará en: http://127.0.0.1:1234

Se realiza una petición POST contra el endpoint /v1/chat/completions
.
n8n
Se crea un workflow y se incluye un nodo de HTTP Request.
En dicho nodo se configura:
Método:
POST
Body Content Type:
JSON
Specify Body:
Using JSON
JSON:
{
"model": "google/gemma-3-12b",
"messages": [
{
"role": "user",
"content": "Tell me a hacker freak joke"
}
]
}

Si en el contenido se quiere incluir un input desde otro nodo, por ejemplo, un chat, se puede:
Incluir un nodo previo de Chat.
Editar la petición HTTP y ejecutar el nodo anterior.
Arrastrar la variable con el contenido al valor de la clave "content" del JSON.
Ejemplo de flujo
Si se quiere cargar directamente el ejemplo del flujo:
Clona el repo.
Importa el
.json
en n8n (opciónImport workflow
).

Última actualización
¿Te fue útil?