A helyi automatizáció n8n és MCP alapon teljes adatbiztonságot kínál havidíjak nélkül. A felhő alapú megoldásokkal ellentétben itt minden a te gépeden történik. Most megmutatjuk hogyan kösd össze a saját gépeden futó modellt a fájljaiddal és adatbázisaiddal. Ez a módszer az Anthropic által bevezetett Model Context Protocol szabványra épül.
Miért kell neked ez a technológia
A legtöbb nyelvi modell egy zárt doboz. Nem látják a friss adataidat és nem tudnak cselekedni a gépeden. Az MCP egy híd a modell és a te eszközeid között.
Ezzel a megoldással a rendszer képes lesz fájlokat olvasni vagy adatbázisban keresni. Mindezt anélkül teszi hogy az adatok elhagynák a helyi hálózatot.
1. lépés A motor beindítása
A rendszer agya egy helyi nyelvi modell lesz. Erre az Ollama a legalkalmasabb eszköz. Töltsd le a hivatalos oldalról és telepítsd.
Nyisd meg a terminált és tölts le egy gyors modellt.
# A Llama 3.2 modell letöltése és futtatása
ollama run llama3.2
A futtatás után ellenőrizd hogy a szerver elérhető-e a http://localhost:11434 címen. Ez lesz a kapcsolódási pont.
2. lépés Az n8n telepítése
Az automatizációs központot is helyben futtatjuk. A Docker a legegyszerűbb módja ennek.
Futtasd ezt a parancsot a konténer elindításához.
docker run -it --rm \
--name n8n \
-p 5678:5678 \
-v n8n_data:/home/node/.n8n \
docker.n8n.io/n8nio/n8n
A felületet ezután a böngészőben éred el az 5678-as porton.
3. lépés Az MCP szerver konfigurálása
Most jön a lényeg. Össze kell kötnünk az n8n rendszert egy adatforrással. A példában egy SQLite adatbázist használunk.
Szükséged lesz egy konfigurációs fájlra az n8n számára. Hozz létre egy mcp_config.json fájlt.
{
"mcpServers": {
"sqlite": {
"command": "uvx",
"args": [
"mcp-server-sqlite",
"--db-path",
"/adatok/vasarlasok.db"
]
}
}
}
Ez a beállítás megmondja a rendszernek hogy hol találja az adatbázist kezelő eszközt.
4. lépés A munkafolyamat felépítése
Lépj be az n8n felületére és hozz létre egy új workflow-t. Három fő komponensre lesz szükséged.
- Keresd meg az AI Agent csomópontot. Ez fogja vezérelni a folyamatot.
- Csatlakoztasd hozzá az Ollama Chat Model elemet. Írd be a Base URL mezőbe hogy
http://host.docker.internal:11434.A modell neve legyenllama3.2.
- Végül add hozzá az MCP Tool elemet. Itt válaszd ki az előbb definiált SQLite szervert.
5. lépés A rendszer tesztelése
Most már minden készen áll. A chat ablakban adj ki egy természetes nyelvű utasítást.
Próbáld ki ezt a kérést:
Nézd meg az adatbázisban ki vásárolt a legtöbbet tegnap.
Írj egy rövid összefoglalót az eredményről.
A rendszer a háttérben a következőket teszi:
- Értelmezi a kérdést.
- Az MCP protokollon keresztül SQL lekérdezést futtat.
- Megkapja a nyers adatokat.
- A nyelvi modell emberi szöveggé formálja a választ.
Hol használhatod ezt
Ez a technológia rengeteg kaput nyit meg:
- Pénzügyi elemzés ahol az adatok nem kerülhetnek felhőbe.
- Személyes asszisztens ami átlátja a naptáradat és a jegyzeteidet.
- Fejlesztői eszköz ami közvetlenül a helyi kódbázisban keres.
A helyi automatizáció n8n és MCP alapon visszaadja a kontrollt a kezedbe. Nem függsz többé külső szolgáltatóktól. Építsd meg a saját privát rendszeredet még ma.




