Megérkezett az MI-törvény „használati utasítása”

Már nem csak elmélet az MI szabályozás: nyilvánosságra hozták a Code of Practice on Transparency of AI-generated Content (Az MI által generált tartalmak átláthatóságára vonatkozó gyakorlati kódex) első tervezetét. Ez a dokumentum fekteti le azokat a konkrét játékszabályokat, amelyek alapján a jövőben el kell döntenünk: ember vagy gép alkotta-e, amit látunk. Összefoglaltuk, kire mi vonatkozik.

Az Európai Unió MI rendelete (AI Act) előírja az átláthatóságot, de a „hogyan” eddig kérdéses volt. A most megjelent tervezet végre tiszta vizet önt a pohárba, és két fő szereplőre osztja a felelősséget: azokra, akik az MI rendszereket fejlesztik (szolgáltatók), és azokra, akik ezeket használják tartalomkészítésre (alkalmazók).

A fejlesztők (szolgáltatók) feladata: A láthatatlan vízjelek kora

Az olyan cégeknek, akik generatív MI modelleket fejlesztenek (pl. képgenerátorok, nyelvi modellek készítői), technikai oldalról kell garantálniuk a felismerhetőséget. A kódex szerint „egyetlen megoldás nem elég”, ezért egy többrétegű védelmi vonalat kell kiépíteniük:

  • Vízjelezés: A tartalmakba (kép, hang, videó) olyan, emberi szemmel/füllel észlelhetetlen jeleket kell rejteniük, amelyek nehezen távolíthatók el.
  • Metaadatok: A fájlok digitális „személyi igazolványába” (metaadatok) be kell írniuk, hogy az adott fájl MI-vel készült, és digitálisan alá is kell írniuk azt.
  • Detektorok: Kötelesek olyan ingyenes eszközöket (pl. webes ellenőrző felületet vagy API-t) biztosítani, amivel bárki ellenőrizheti egy tartalom eredetét.

A tartalomgyártók (alkalmazók) feladata: Mikor kell kitenni az „AI” címkét?

Számunkra, felhasználók és cégek számára (akik „alkalmazóként” használják ezeket az eszközöket) a legfontosabb kérdés: mikor kell jeleznünk a közönségünknek, hogy AI-t használtunk? A tervezet két kritikus területet emel ki:

A) Deepfake tartalmak

Ha olyan képet, hangot vagy videót teszünk közzé, ami valós személyekre, helyekre vagy eseményekre hasonlít, de manipulált (deepfake), azt egyértelműen jelölni kell.

  • Hogyan? Egy egységes ikonnal (pl. „AI” felirat).
  • Videóknál a jelölésnek vagy végig láthatónak kell lennie, vagy a videó elején egy figyelmeztetéssel (disclaimer) kell indulnia.

B) Közérdekű szövegek

Ha olyan szöveget publikálunk, amelynek célja a „nyilvánosság tájékoztatása közérdekű ügyekben” (pl. hírek, elemzések), és azt AI generálta, szintén jelölni kell.

A kiskapu (szerkesztői felelősség): NEM kell kitenni a jelzést, ha a szöveget ember ellenőrizte, szerkesztette, és egy természetes vagy jogi személy vállalja érte a szerkesztői felelősséget. Ez fontos könnyítés a médiaipar számára, de dokumentálni kell a folyamatot.

Hogyan fog kinézni a jelölés?

A tervezet egy egységes ikon bevezetését javasolja. Amíg az EU-s szabvány el nem készül, a javaslat egy egyszerű, kétbetűs jelzés (pl. „AI” vagy a helyi nyelvnek megfelelő rövidítés, nálunk akár „MI”) használata.

Ennek jól láthatónak kell lennie, nem bújhat el a háttérben.

Az „AI-assisted” (MI által segített) és a „Fully AI-generated” (teljesen MI által generált) tartalmak között különbséget lehet majd tenni.

Kivételek: A művészet szabadsága

Jó hír a kreatív iparnak: ha a tartalom nyilvánvalóan művészeti, szatíra vagy fikciós alkotás része, a jelölési kötelezettség „finomítható”. Ilyenkor elég úgy jelezni az MI tényét, hogy az ne zavarja az alkotás élvezetét (pl. a stáblistában vagy egy diszkrét jelzéssel), nem kell, hogy a képernyő közepén villogjon.

Mi a következő lépés?

Ez még csak az első tervezet („First Draft”). A véglegesítésig még várják a visszajelzéseket 2026. január 23-ig. De az irány egyértelmű: az átláthatóság nem választás kérdése lesz, hanem a tartalomgyártás alapkövetelménye.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél

Hozzászólás

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük