A valóság vége: kampány MI-vel

A magyar Országgyűlés a héten elfogadta az Európai Unió mesterséges intelligenciáról szóló rendeletének (EU AI Act) hazai végrehajtásáról szóló törvényt (T/12632). A jogszabály kijelöli, mely hatóságok felügyelik majd az MI-rendszerek fejlesztését és alkalmazását, létrehozza a Magyar Mesterséges Intelligencia Tanácsot, és meghatározza, mikor kell bejelenteni vagy ellenőrizni egy MI-alapú technológiát.

Papíron ez a törvény a biztonságos és etikus MI-használatot szolgálja, a gyakorlatban viszont egy olyan pillanatban született, amikor a mesterséges intelligencia már a politikai hatalom egyik legfontosabb eszköze lett.

A paradoxon tökéletes: miközben a jog még a jövőt próbálja védeni, a jelenben már manipulálják vele az embereket.

A kampány, ahol a valóság is kampányeszköz

A most zajló választási kampányban mindkét politikai oldal használ mesterséges intelligenciát. Nem titok, csak senki sem beszél róla elég hangosan.

Az egyik fél MI-vel fogalmaztat üzeneteket és sajtóanyagot, a másik MI-vel elemez érzelmi reakciókat, hogy aztán célzott hirdetésekkel nyomja a választó elé azt, amit hallani szeretne. És ott vannak a „mélyhamisított” videók: politikusok, akik sosem mondtak olyat, amit a képernyőn látunk, de az arcuk, a hangjuk, a gesztusaik meggyőzőbbek, mint bármilyen cáfolat.

A választó úgy érzi, saját szemének hisz, valójában azonban egy gép által szerkesztett valóságot fogyaszt. Az MI-alapú kampány nem meggyőz, hanem szuggerál. Nem vitatkozik, hanem érzelmet adagol. A cél nem az, hogy az állampolgár gondolkodjon, hanem hogy reagáljon. A reakció pedig mérhető, optimalizálható és végteleníthető.

Ez az új politika: adatvezérelt érzelemgyár, ahol az igazság nem érték, csak melléktermék.

A törvény véd, de nem helyettünk

A frissen elfogadott magyar végrehajtási törvény kétségtelenül fontos mérföldkő. Kijelöli, mely szervek felügyelik majd a mesterséges intelligencia jogszerű működését, és bevezeti az úgynevezett szabályozói tesztkörnyezetet, ahol új MI-rendszereket biztonságosan lehet kipróbálni. A szöveg gondosan hivatkozik a magas kockázatú rendszerekre, a piacfelügyeletre, sőt még a szankciókra is.

De mindez nem terjed ki a politikai kampányokra, ahol az MI-t jelenleg szabadon lehet használni, feltéve, hogy formailag nem sértenek törvényt vagy személyiségi jogot. A magyar jogban nincs előírás arra, hogy fel kellene tüntetni, ha egy politikai tartalom mesterséges intelligenciával készült.
Nincs külön szabály a „gépi megtévesztésre”, és a deepfake fogalma sem szerepel egyetlen magyar törvényben sem.

Az uniós AI Act ezzel szemben már kimondja: minden manipulált vagy MI által generált képi, hang- vagy videótartalmat egyértelműen jelölni kell. Ez az átláthatósági kötelezettség elvileg kiterjed a kampányvideókra is, ahol a közönségnek joga lenne tudni, hogy amit lát, nem valós felvétel, hanem mesterségesen előállított anyag. A szabály azonban csak 2026-tól lesz teljes mértékben alkalmazandó, így most még a szürke zóna uralkodik: a manipuláció megtörténik, a felelősség pedig senkié.

Mindkét oldalon ugyanaz a bűn

A mesterséges intelligencia nem pártszínű. Ugyanazzal a hatékonysággal szolgálja a kormányt és az ellenzéket, ha kell, egyszerre. Az egyik oldal az ellenfelet torzítja, a másik az önképét fényezi. Az egyik hamis félelmet, a másik hamis reményt gyárt. A végeredmény ugyanaz: a valóság újraírása.

Ez a szimmetria teszi igazán veszélyessé a helyzetet. Amikor mindkét oldal ugyanazzal a technológiával hazudik, a választó végül senkiben sem bízik. És ha senki sem hisz senkinek, akkor a demokrácia már csak díszlet, egy választási logó a valóság üres falán.

Miért nem kérdez senki?

Mert a közönség belefáradt. Az emberek már nem lepődnek meg a manipuláción, legfeljebb szórakoznak rajta. A deepfake-videók és az MI-által írt politikai szlogenek nem váltanak ki közfelháborodást, mert megszoktuk, hogy a közélet egy folyamatos performansz.

De minden alkalommal, amikor csendben maradunk, amikor nem kérdezzük meg, mire használják a technológiát, közelebb kerülünk ahhoz, hogy a hatalom következmények nélkül hazudhasson.

A népképviseleti demokrácia alapja az, hogy a nép képviselteti magát. De ha a nép már nem kérdez, nem ellenőriz, nem követel elszámolást, akkor a képviselet is üres forma lesz. A technológia önmagában nem veszélyes. Az emberi közöny teszi azzá.

Aki nem kérdez, az beleegyezik. És aki beleegyezik a manipulációba, az már nem polgár, csak adatpont.

A mesterséges intelligencia új korszakot nyitott: most már nemcsak a szavakat, hanem az érzelmi reakciókat is képes optimalizálni. Egy kampányvideó ma úgy működik, mint egy laboratóriumi kísérlet. A gép méri a figyelmet, elemzi a félelmet, adagolja a dühöt. És a politikus – bármelyik oldalról – elégedetten nézi a grafikonokat, mert az algoritmus „működik”.

A probléma az, hogy a demokrácia nem kísérleti terep.

Ha a technológiát arra használják, hogy az embereket tudtukon kívül befolyásolják, az már nem politikai kommunikáció, hanem manipuláció.

Az EU-s szabályozás ezt egyértelműen tiltja: olyan MI-alkalmazások, amelyek szándékosan torzítják az emberi viselkedést vagy kihasználják a pszichológiai sérülékenységet, tiltott gyakorlatnak minősülnek.

Magyarországon viszont ez a tilalom még nem érvényesül közvetlenül, így a választók nem kapnak védelmet, csak információs zajt.

A népképviseleti demokrácia elvileg a felhatalmazásról szól. De ha a hatalom már nem az igazság, hanem az érzelmi manipuláció alapján szerveződik, akkor a választás nem döntés, hanem reflex.
És ha a polgárok nem kérdezik meg, mire használják a technológiát, akkor a hatalom sem fogja elmagyarázni.

Az etika offline maradt

A mesterséges intelligencia etikus használatát nem lehet szabályozással kipipálni. Az etika nem paragrafus, hanem szándék. Ha a politikai szervezetek komolyan gondolják, hogy felelősen használják az MI-t, létre kell hozniuk a mesterséges intelligencia etikai felelős pozícióját. Nem kommunikációs tanácsadót, hanem olyan szakembert, aki érti, mikor válik a technológiai innováció manipulációvá, és el meri mondani, hogy „eddig és ne tovább”. Ez nem korlátozás, hanem védelem. A politika saját józansága ellen.

Az MI-etikai felelős lenne az a minimum, amit egy demokratikus társadalom elvárhatna. Nem azért, mert a törvény kötelezi, hanem mert az erkölcs megkívánja.

A valóság visszaszerzése

A mesterséges intelligencia nem gonosz. Nem is jó. Csak hatékony. A bajt a felhasználója okozza. Amikor a politikus nem felelősséget, hanem hatalmat keres benne, amikor az állampolgár nem kér számon, csak fogyaszt, akkor a valóság elveszíti a közös jelentését. És amikor a valóság már nem közös, a demokrácia sem az.

A valóság vége nem látványos esemény lesz. Nem egy nap alatt omlik össze, hanem lassan, kényelmesen, algoritmusok által optimalizálva. Először a szavak torzulnak el, aztán a képek, végül az ítélőképesség. A gép csak segít abban, amit mi magunk kezdtünk el: elhinni, amit kényelmes hinni.

A mesterséges intelligencia nem veszi el tőlünk az igazságot. Csak megmutatja, mennyire könnyen lemondunk róla.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél