Automatización
Ejemplo 1: Conexión con una IA Local (LMStudio + n8n)
Si dispones de un equipo con recursos suficientes, puedes ejecutar modelos de IA de forma local y conectarlos directamente con n8n . Esto permite crear y probar workflows integrados con IA sin depender de servicios externos ni incurrir en costes por consumo de tokens y en un entorno de pruebas privado.
n8n: https://github.com/n8n-io/n8n
Ejemplo sencillo:
n8n: Se ejecuta en un docker (http://localhost:5678/).
LMStudio: Se ejecuta en el host principal.
Dado que el servidor de LMStudio se ejecutará en el host principal, para que el docker pueda realizar peticiones, es necesario sustituir 127.0.0.1 por host.docker.internal.

Si se desea realizar la conexión desde una VM en vez de desde el host principal, se puede usar el plugin remote-lmstudio, que permite exponer el puerto en la red (ej: http://192.168.1.100:1234/): https://lmstudio.ai/lmstudio/remote-lmstudio

LMStudio
Para ello, habrá que cargar y ejecutar el servidor con el modelo deseado en LMStudio.
Este servidor por defecto se encontrará en: http://127.0.0.1:1234

Se realiza una petición POST contra el endpoint /v1/chat/completions.
n8n
Se crea un workflow y se incluye un nodo de HTTP Request.
En dicho nodo se configura:
Método:
POSTBody Content Type:
JSONSpecify Body:
Using JSONJSON:
{
"model": "google/gemma-3-12b",
"messages": [
{
"role": "user",
"content": "Tell me a hacker freak joke"
}
]
}
Si en el contenido se quiere incluir un input desde otro nodo, por ejemplo, un chat, se puede:
Incluir un nodo previo de Chat.
Editar la petición HTTP y ejecutar el nodo anterior.
Arrastrar la variable con el contenido al valor de la clave "content" del JSON.
Ejemplo de flujo
Si se quiere cargar directamente el ejemplo del flujo:
Clona el repo.
Importa el
.jsonen n8n (opciónImport workflow).

Última actualización
¿Te fue útil?