Ki a felelős, ha az MI rosszul dönt?

Ki a felelős, ha az MI rosszul dönt?

Egy MI-rendszer rosszul diagnosztizál egy beteget. Az orvos elfogadja az ajánlást. A beteg károsodik. Kié a felelősség? Az orvosé, a fejlesztőé, a kórházé vagy az MI-é?

A senki földje

A felelősség kérdése az MI-korszak legnagyobb jogi vákuuma. A Stanford Law School 2026. márciusi elemzése nem finomkodott. A tanulmány címe mindent elárul: Erőtlen bizalom Az EU AI Act, ami 2026. augusztus 2-án lép teljes hatályba, szabályoz ugyan, de a szankciók és a felelősségvállalás részletei homályosak maradnak.

A probléma egyszerű. Az MI nem jogi személy. Nem perelhetd be. Nem vonhatod felelősségre. De a döntései valós következményekkel járnak. Amikor egy MI-diagnosztikai rendszer tévesen negatívnak jelez egy daganatot, valakinek viselnie kell a következményeket. A kérdés az, hogy kinek.

Az EU válasza: megosztott felelősség

Az Európai Unió két párhuzamos szabályozással próbálja kezelni a helyzetet. Az AI Act a megelőzésre fókuszál. A felülvizsgált Termékfelelősségi Irányelv (PLD) pedig a kártérítésre, amit a tagállamoknak 2026 decemberéig kell átültetniük a nemzeti jogba.

A Bird & Bird nemzetközi jogi iroda elemzése szerint a PLD egy fontos újítást hoz. Ha egy MI-alapú orvosi eszköz hibás diagnózist ad, a gyártó objektív felelősséggel tartozik. Nem kell bizonyítani, hogy tudott a hibáról. Elég, hogy a termék hibás volt.

De a helyzet bonyolultabb. Ha az MI-szoftver hibája a mögöttes fejlesztőtől ered – mondjuk a tréningadatok voltak hiányosak –, a gyártó visszkereseti igénnyel fordulhat az MI-szolgáltató felé. A felelősség tehát megosztott és a láncolat hosszú.

Az orvos dilemmája

A legkényesebb kérdés az emberi felügyelet szerepe. Az Oxford Academic Medical Law Review 2024-es tanulmánya, ami 2026-ban az AI Act kontextusában újra aktuálissá vált, két modellt vázol fel.

Az első modellben az orvos dönt, az MI tanácsot ad. A felelősség egyértelműen az orvosé. A második modellben az MI-rendszer annyira komplex, hogy az orvos képtelen érdemben felülvizsgálni a javaslatát. Ilyenkor ki a felelős? Az orvos, aki elfogadta, amit nem értett? Vagy a rendszer, ami átláthatatlan döntést hozott?

Az AI Act egyértelműen előírja az emberi felügyeletet a magas kockázatú MI-rendszereknél. De a felügyelet csak annyit ér, amennyire a felügyelő érti, amit felügyel. Ha egy orvos nem tudja megmagyarázni, miért javasolta az MI az adott kezelést, a felügyelet puszta formalitás.

Magyar kontextus

Magyarországon az EESZT-ben tárolt egészségügyi adatok MI-célú felhasználásának jogi keretei 2026 januárjában léptek hatályba. A szabályozás megnyitja az utat az MI-alapú diagnosztika előtt, de a felelősségi kérdéseket nem rendezi részletesen.

A gyakorlatban ez azt jelenti, hogy egy magyar kórház, ami MI-diagnosztikát vezet be, egyelőre az EU-s keretekre támaszkodik. A PLD átültetése 2026 végéig hátravan. Addig a felelősség szürke zónában mozog.

A válasz te vagy

A jog lassan követi a technológiát. Ez nem újdonság. De az MI-felelősség kérdése nem várhat a jogalkotóra.

Ha orvos vagy, értsd, mit javasol az MI, mielőtt elfogadod. Ha vezető vagy, tudd, milyen MI-rendszert használ a céged és ki felel a döntéseiért. Ha felhasználó vagy, ne bízd a tested, a pénzed vagy a karriered egyetlen MI-válaszra ellenőrzés nélkül.

A felelősség végső soron nem az MI-é. A miénk.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél

Hozzászólás

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük