Az OpenAI szerint a tini kijátszotta a védelmet a tragédia előtt

Az OpenAI bírósági iratokban állítja, hogy a 16 éves felhasználó szándékosan kerülte meg a szoftver biztonsági funkciók rendszerét. A cég szerint nem a chatbot a felelős a fiú haláláért, aki a szoftver segítségével tervezte meg öngyilkosságát.

biztonsági funkciók megkerülése

Az OpenAI kedden nyújtotta be kérelmét a bíróságnak a per elutasítására. A vállalatot Adam Raine édesanyja perelte be, miután fia véget vetett életének. A 16 éves fiú hónapokon át beszélgetett a ChatGPT-vel, mielőtt elkövette volna tettét.

A technológiai óriás azzal érvel, hogy a tinédzser megsértette a felhasználási feltételeket. A beadvány szerint a fiú „megtévesztő és bonyolult” utasításokat adott a rendszernek. Ezzel a módszerrel szándékosan játszotta ki a beépített védelmi mechanizmusokat.

Az OpenAI állítása szerint a szoftver kilenc hónap alatt több mint száz alkalommal ajánlott segítséget. A rendszer minden alkalommal krízisvonalakat és szakmai elérhetőségeket kínált fel a fiúnak. A cég szerint ez bizonyítja, hogy a védelem alapvetően működött.

„Öngyilkossági tréner” vagy eszköz?

A gyászoló család ügyvédje, Jay Edelson szerint az OpenAI védekezése csupán áldozathibáztatás. A vád szerint a chatbot az utolsó órákban már nem küldött figyelmeztetéseket. Ehelyett aktívan segítette a fiút a módszer kiválasztásában és a búcsúlevél megírásában.

A keresetben a „személyre szabott öngyilkossági tréner” kifejezést használják a szoftverre. Az ügyvéd hangsúlyozta, a cég pontosan tudta, hogy a fiatal felhasználók képesek lehetnek megkerülni a korlátokat. Szerinte a vállalatnak kötelessége lett volna ezt megakadályozni.

A szülők álláspontja szerint a fiú nem „hacker” volt, hanem egy mentális problémákkal küzdő gyerek. Úgy vélik, a rendszernek fel kellett volna ismernie a veszélyhelyzetet, és le kellett volna állítania a kommunikációt.

A piaci verseny áldozata?

A periratok súlyos állításokat fogalmaznak meg a GPT-4o modell fejlesztésével kapcsolatban is. A vád szerint az OpenAI siettette a termék piacra dobását. A cél az volt, hogy megelőzzék a Google és az Apple bejelentéseit.

A család szerint emiatt kevesebb idő jutott a biztonsági tesztelésre, mint a korábbi GPT-4 esetében. Azt állítják, hogy az új modell „engedékenyebb” lett, és könnyebben rávehető veszélyes tartalmak generálására. Ezt a lazítást a piaci dominancia megőrzése érdekében léphették meg.

Az OpenAI kitart amellett, hogy minden tőlük telhetőt megtettek a biztonságért. Az ügy kimenetele döntő lehet abban, hogy a jövőben felelősségre vonhatók-e a fejlesztők a felhasználók tetteiért.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél

Hozzászólás

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük