Egy MI-rendszer rosszul diagnosztizál egy beteget. Az orvos elfogadja az ajánlást. A beteg károsodik. Kié a felelősség? Az orvosé, a fejlesztőé, a kórházé vagy az MI-é?
A senki földje
A felelősség kérdése az MI-korszak legnagyobb jogi vákuuma. A Stanford Law School 2026. márciusi elemzése nem finomkodott. A tanulmány címe mindent elárul: Erőtlen bizalom Az EU AI Act, ami 2026. augusztus 2-án lép teljes hatályba, szabályoz ugyan, de a szankciók és a felelősségvállalás részletei homályosak maradnak.
A probléma egyszerű. Az MI nem jogi személy. Nem perelhetd be. Nem vonhatod felelősségre. De a döntései valós következményekkel járnak. Amikor egy MI-diagnosztikai rendszer tévesen negatívnak jelez egy daganatot, valakinek viselnie kell a következményeket. A kérdés az, hogy kinek.
Az EU válasza: megosztott felelősség
Az Európai Unió két párhuzamos szabályozással próbálja kezelni a helyzetet. Az AI Act a megelőzésre fókuszál. A felülvizsgált Termékfelelősségi Irányelv (PLD) pedig a kártérítésre, amit a tagállamoknak 2026 decemberéig kell átültetniük a nemzeti jogba.
A Bird & Bird nemzetközi jogi iroda elemzése szerint a PLD egy fontos újítást hoz. Ha egy MI-alapú orvosi eszköz hibás diagnózist ad, a gyártó objektív felelősséggel tartozik. Nem kell bizonyítani, hogy tudott a hibáról. Elég, hogy a termék hibás volt.
De a helyzet bonyolultabb. Ha az MI-szoftver hibája a mögöttes fejlesztőtől ered – mondjuk a tréningadatok voltak hiányosak –, a gyártó visszkereseti igénnyel fordulhat az MI-szolgáltató felé. A felelősség tehát megosztott és a láncolat hosszú.
Az orvos dilemmája
A legkényesebb kérdés az emberi felügyelet szerepe. Az Oxford Academic Medical Law Review 2024-es tanulmánya, ami 2026-ban az AI Act kontextusában újra aktuálissá vált, két modellt vázol fel.
Az első modellben az orvos dönt, az MI tanácsot ad. A felelősség egyértelműen az orvosé. A második modellben az MI-rendszer annyira komplex, hogy az orvos képtelen érdemben felülvizsgálni a javaslatát. Ilyenkor ki a felelős? Az orvos, aki elfogadta, amit nem értett? Vagy a rendszer, ami átláthatatlan döntést hozott?
Az AI Act egyértelműen előírja az emberi felügyeletet a magas kockázatú MI-rendszereknél. De a felügyelet csak annyit ér, amennyire a felügyelő érti, amit felügyel. Ha egy orvos nem tudja megmagyarázni, miért javasolta az MI az adott kezelést, a felügyelet puszta formalitás.
Magyar kontextus
Magyarországon az EESZT-ben tárolt egészségügyi adatok MI-célú felhasználásának jogi keretei 2026 januárjában léptek hatályba. A szabályozás megnyitja az utat az MI-alapú diagnosztika előtt, de a felelősségi kérdéseket nem rendezi részletesen.
A gyakorlatban ez azt jelenti, hogy egy magyar kórház, ami MI-diagnosztikát vezet be, egyelőre az EU-s keretekre támaszkodik. A PLD átültetése 2026 végéig hátravan. Addig a felelősség szürke zónában mozog.
A válasz te vagy
A jog lassan követi a technológiát. Ez nem újdonság. De az MI-felelősség kérdése nem várhat a jogalkotóra.
Ha orvos vagy, értsd, mit javasol az MI, mielőtt elfogadod. Ha vezető vagy, tudd, milyen MI-rendszert használ a céged és ki felel a döntéseiért. Ha felhasználó vagy, ne bízd a tested, a pénzed vagy a karriered egyetlen MI-válaszra ellenőrzés nélkül.
A felelősség végső soron nem az MI-é. A miénk.




