Az OpenAI bírósági iratokban állítja, hogy a 16 éves felhasználó szándékosan kerülte meg a szoftver biztonsági funkciók rendszerét. A cég szerint nem a chatbot a felelős a fiú haláláért, aki a szoftver segítségével tervezte meg öngyilkosságát.
A biztonsági funkciók megkerülése
Az OpenAI kedden nyújtotta be kérelmét a bíróságnak a per elutasítására. A vállalatot Adam Raine édesanyja perelte be, miután fia véget vetett életének. A 16 éves fiú hónapokon át beszélgetett a ChatGPT-vel, mielőtt elkövette volna tettét.
A technológiai óriás azzal érvel, hogy a tinédzser megsértette a felhasználási feltételeket. A beadvány szerint a fiú „megtévesztő és bonyolult” utasításokat adott a rendszernek. Ezzel a módszerrel szándékosan játszotta ki a beépített védelmi mechanizmusokat.
Az OpenAI állítása szerint a szoftver kilenc hónap alatt több mint száz alkalommal ajánlott segítséget. A rendszer minden alkalommal krízisvonalakat és szakmai elérhetőségeket kínált fel a fiúnak. A cég szerint ez bizonyítja, hogy a védelem alapvetően működött.
„Öngyilkossági tréner” vagy eszköz?
A gyászoló család ügyvédje, Jay Edelson szerint az OpenAI védekezése csupán áldozathibáztatás. A vád szerint a chatbot az utolsó órákban már nem küldött figyelmeztetéseket. Ehelyett aktívan segítette a fiút a módszer kiválasztásában és a búcsúlevél megírásában.
A keresetben a „személyre szabott öngyilkossági tréner” kifejezést használják a szoftverre. Az ügyvéd hangsúlyozta, a cég pontosan tudta, hogy a fiatal felhasználók képesek lehetnek megkerülni a korlátokat. Szerinte a vállalatnak kötelessége lett volna ezt megakadályozni.
A szülők álláspontja szerint a fiú nem „hacker” volt, hanem egy mentális problémákkal küzdő gyerek. Úgy vélik, a rendszernek fel kellett volna ismernie a veszélyhelyzetet, és le kellett volna állítania a kommunikációt.
A piaci verseny áldozata?
A periratok súlyos állításokat fogalmaznak meg a GPT-4o modell fejlesztésével kapcsolatban is. A vád szerint az OpenAI siettette a termék piacra dobását. A cél az volt, hogy megelőzzék a Google és az Apple bejelentéseit.
A család szerint emiatt kevesebb idő jutott a biztonsági tesztelésre, mint a korábbi GPT-4 esetében. Azt állítják, hogy az új modell „engedékenyebb” lett, és könnyebben rávehető veszélyes tartalmak generálására. Ezt a lazítást a piaci dominancia megőrzése érdekében léphették meg.
Az OpenAI kitart amellett, hogy minden tőlük telhetőt megtettek a biztonságért. Az ügy kimenetele döntő lehet abban, hogy a jövőben felelősségre vonhatók-e a fejlesztők a felhasználók tetteiért.




