Privát adatfeldolgozás ingyen n8n és MCP segítségével

helyi automatizáció n8n és MCP alapon teljes adatbiztonságot kínál havidíjak nélkül. A felhő alapú megoldásokkal ellentétben itt minden a te gépeden történik. Most megmutatjuk hogyan kösd össze a saját gépeden futó modellt a fájljaiddal és adatbázisaiddal. Ez a módszer az Anthropic által bevezetett Model Context Protocol szabványra épül.

Miért kell neked ez a technológia

A legtöbb nyelvi modell egy zárt doboz. Nem látják a friss adataidat és nem tudnak cselekedni a gépeden. Az MCP egy híd a modell és a te eszközeid között.

Ezzel a megoldással a rendszer képes lesz fájlokat olvasni vagy adatbázisban keresni. Mindezt anélkül teszi hogy az adatok elhagynák a helyi hálózatot.

1. lépés A motor beindítása

A rendszer agya egy helyi nyelvi modell lesz. Erre az Ollama a legalkalmasabb eszköz. Töltsd le a hivatalos oldalról és telepítsd.

Nyisd meg a terminált és tölts le egy gyors modellt.

# A Llama 3.2 modell letöltése és futtatása
ollama run llama3.2

A futtatás után ellenőrizd hogy a szerver elérhető-e a http://localhost:11434 címen. Ez lesz a kapcsolódási pont.

2. lépés Az n8n telepítése

Az automatizációs központot is helyben futtatjuk. A Docker a legegyszerűbb módja ennek.

Futtasd ezt a parancsot a konténer elindításához.

docker run -it --rm \
 --name n8n \
 -p 5678:5678 \
 -v n8n_data:/home/node/.n8n \
 docker.n8n.io/n8nio/n8n

A felületet ezután a böngészőben éred el az 5678-as porton.

3. lépés Az MCP szerver konfigurálása

Most jön a lényeg. Össze kell kötnünk az n8n rendszert egy adatforrással. A példában egy SQLite adatbázist használunk.

Szükséged lesz egy konfigurációs fájlra az n8n számára. Hozz létre egy mcp_config.json fájlt.

{
  "mcpServers": {
    "sqlite": {
      "command": "uvx",
      "args": [
        "mcp-server-sqlite",
        "--db-path",
        "/adatok/vasarlasok.db"
      ]
    }
  }
}

Ez a beállítás megmondja a rendszernek hogy hol találja az adatbázist kezelő eszközt.

4. lépés A munkafolyamat felépítése

Lépj be az n8n felületére és hozz létre egy új workflow-t. Három fő komponensre lesz szükséged.

  • Keresd meg az AI Agent csomópontot. Ez fogja vezérelni a folyamatot.
  • Csatlakoztasd hozzá az Ollama Chat Model elemet. Írd be a Base URL mezőbe hogy http://host.docker.internal:11434. A modell neve legyen llama3.2.
  • Végül add hozzá az MCP Tool elemet. Itt válaszd ki az előbb definiált SQLite szervert.

5. lépés A rendszer tesztelése

Most már minden készen áll. A chat ablakban adj ki egy természetes nyelvű utasítást.

Próbáld ki ezt a kérést:

Nézd meg az adatbázisban ki vásárolt a legtöbbet tegnap.
Írj egy rövid összefoglalót az eredményről.

A rendszer a háttérben a következőket teszi:

  1. Értelmezi a kérdést.
  2. Az MCP protokollon keresztül SQL lekérdezést futtat.
  3. Megkapja a nyers adatokat.
  4. A nyelvi modell emberi szöveggé formálja a választ.

Hol használhatod ezt

Ez a technológia rengeteg kaput nyit meg:

  • Pénzügyi elemzés ahol az adatok nem kerülhetnek felhőbe.
  • Személyes asszisztens ami átlátja a naptáradat és a jegyzeteidet.
  • Fejlesztői eszköz ami közvetlenül a helyi kódbázisban keres.

helyi automatizáció n8n és MCP alapon visszaadja a kontrollt a kezedbe. Nem függsz többé külső szolgáltatóktól. Építsd meg a saját privát rendszeredet még ma.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél

Hozzászólás

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük