Már nem csak elmélet az MI szabályozás: nyilvánosságra hozták a Code of Practice on Transparency of AI-generated Content (Az MI által generált tartalmak átláthatóságára vonatkozó gyakorlati kódex) első tervezetét. Ez a dokumentum fekteti le azokat a konkrét játékszabályokat, amelyek alapján a jövőben el kell döntenünk: ember vagy gép alkotta-e, amit látunk. Összefoglaltuk, kire mi vonatkozik.
Az Európai Unió MI rendelete (AI Act) előírja az átláthatóságot, de a „hogyan” eddig kérdéses volt. A most megjelent tervezet végre tiszta vizet önt a pohárba, és két fő szereplőre osztja a felelősséget: azokra, akik az MI rendszereket fejlesztik (szolgáltatók), és azokra, akik ezeket használják tartalomkészítésre (alkalmazók).
A fejlesztők (szolgáltatók) feladata: A láthatatlan vízjelek kora
Az olyan cégeknek, akik generatív MI modelleket fejlesztenek (pl. képgenerátorok, nyelvi modellek készítői), technikai oldalról kell garantálniuk a felismerhetőséget. A kódex szerint „egyetlen megoldás nem elég”, ezért egy többrétegű védelmi vonalat kell kiépíteniük:
- Vízjelezés: A tartalmakba (kép, hang, videó) olyan, emberi szemmel/füllel észlelhetetlen jeleket kell rejteniük, amelyek nehezen távolíthatók el.
- Metaadatok: A fájlok digitális „személyi igazolványába” (metaadatok) be kell írniuk, hogy az adott fájl MI-vel készült, és digitálisan alá is kell írniuk azt.
- Detektorok: Kötelesek olyan ingyenes eszközöket (pl. webes ellenőrző felületet vagy API-t) biztosítani, amivel bárki ellenőrizheti egy tartalom eredetét.
A tartalomgyártók (alkalmazók) feladata: Mikor kell kitenni az „AI” címkét?
Számunkra, felhasználók és cégek számára (akik „alkalmazóként” használják ezeket az eszközöket) a legfontosabb kérdés: mikor kell jeleznünk a közönségünknek, hogy AI-t használtunk? A tervezet két kritikus területet emel ki:
A) Deepfake tartalmak
Ha olyan képet, hangot vagy videót teszünk közzé, ami valós személyekre, helyekre vagy eseményekre hasonlít, de manipulált (deepfake), azt egyértelműen jelölni kell.
- Hogyan? Egy egységes ikonnal (pl. „AI” felirat).
- Videóknál a jelölésnek vagy végig láthatónak kell lennie, vagy a videó elején egy figyelmeztetéssel (disclaimer) kell indulnia.
B) Közérdekű szövegek
Ha olyan szöveget publikálunk, amelynek célja a „nyilvánosság tájékoztatása közérdekű ügyekben” (pl. hírek, elemzések), és azt AI generálta, szintén jelölni kell.
A kiskapu (szerkesztői felelősség): NEM kell kitenni a jelzést, ha a szöveget ember ellenőrizte, szerkesztette, és egy természetes vagy jogi személy vállalja érte a szerkesztői felelősséget. Ez fontos könnyítés a médiaipar számára, de dokumentálni kell a folyamatot.
Hogyan fog kinézni a jelölés?
A tervezet egy egységes ikon bevezetését javasolja. Amíg az EU-s szabvány el nem készül, a javaslat egy egyszerű, kétbetűs jelzés (pl. „AI” vagy a helyi nyelvnek megfelelő rövidítés, nálunk akár „MI”) használata.
Ennek jól láthatónak kell lennie, nem bújhat el a háttérben.
Az „AI-assisted” (MI által segített) és a „Fully AI-generated” (teljesen MI által generált) tartalmak között különbséget lehet majd tenni.
Kivételek: A művészet szabadsága
Jó hír a kreatív iparnak: ha a tartalom nyilvánvalóan művészeti, szatíra vagy fikciós alkotás része, a jelölési kötelezettség „finomítható”. Ilyenkor elég úgy jelezni az MI tényét, hogy az ne zavarja az alkotás élvezetét (pl. a stáblistában vagy egy diszkrét jelzéssel), nem kell, hogy a képernyő közepén villogjon.
Mi a következő lépés?
Ez még csak az első tervezet („First Draft”). A véglegesítésig még várják a visszajelzéseket 2026. január 23-ig. De az irány egyértelmű: az átláthatóság nem választás kérdése lesz, hanem a tartalomgyártás alapkövetelménye.




