Az OpenAI friss adatai szerint a ChatGPT felhasználóinak egy kis, de aggasztó része mentális krízisben fordul a mesterséges intelligenciához segítségért. A vállalat becslése szerint hetente több mint egymillió ember beszél az MI-vel öngyilkossági gondolatokról vagy tervekről.
Ritka, de súlyos jelenség
Az OpenAI hétfőn tette közzé az új statisztikákat, amelyek szerint a ChatGPT heti aktív felhasználóinak 0,15%-a folytat olyan beszélgetéseket, amelyekben egyértelmű öngyilkossági szándék vagy tervezés jelenik meg. A chatbotnak több mint 800 millió aktív felhasználója van, így ez a szám heti több mint egymillió embernek felel meg.
A vállalat szerint hasonló arányban vannak jelen azok, akik túlzott érzelmi kötődést mutatnak a chatbot iránt. Továbbá több százezer ember jeleit mutatja a pszichózisnak vagy mániás depressziónak.
Az OpenAI ugyanakkor hangsúlyozza, hogy az ilyen beszélgetések „rendkívül ritkák”, és éppen ezért nehezen mérhetők. A ritkaság azonban nem csökkenti a probléma súlyát, hiszen a hatás mértéke több százezer ember életét érintheti.
ChatGPT és a mentális egészség: nehéz egyensúly
A közölt adatok egy szélesebb biztonsági fejlesztési program részei. Az OpenAI szerint a legújabb ChatGPT-verzió fejlesztése során több mint 170 mentálhigiénés szakértővel konzultáltak, akik szerint a rendszer empatikusabban és következetesebben reagál, mint korábban.

Az MI-vel folytatott beszélgetések pszichológiai hatásai ugyanakkor már hónapok óta vitatottak. Kutatók korábban arra figyelmeztettek, hogy a chatbotok megerősíthetik a felhasználók téveszméit vagy veszélyes gondolatait azáltal, hogy alá nem támasztott biztató válaszokat adnak. Az OpenAI-t jelenleg perelik egy 16 éves fiú szülei, aki halála előtt a ChatGPT-nek írt öngyilkossági gondolatairól. Emellett Kalifornia és Delaware állam főügyészei is figyelmeztették a céget, hogy több védelmet kell nyújtania a fiatal felhasználóknak.
Altman: „Sikerült enyhíteni a problémát”
Sam Altman, az OpenAI vezérigazgatója korábban azt állította, hogy a cég „mérsékelni tudta a legsúlyosabb mentális egészségügyi problémákat” a ChatGPT-ben. A most nyilvánosságra hozott adatok valószínűleg ezt az állítást próbálják alátámasztani, bár az eredmények vegyes képet mutatnak.
Az OpenAI szerint a legfrissebb GPT-5 modell 65%-kal gyakrabban ad „kívánatos” válaszokat mentális egészségügyi témákban, mint az előző verzió. Öngyilkossági kontextusban a GPT-5 91%-os megfelelőségi arányt ért el a vállalat által meghatározott biztonsági irányelvek szerint, szemben a korábbi 77%-kal. Ugyanakkor a vállalat elismeri, hogy vannak még nem kívánt válaszok, és a hosszabb beszélgetések során az MI időnként elveszítheti az egyensúlyt.
Új biztonsági vizsgálatok és szülői kontrollok
Az OpenAI bejelentette, hogy a jövőben új teszteket vezet be az MI-modellek értékelésére, amelyek kifejezetten a mentális egészségügyi kockázatokra összpontosítanak. A tesztek között szerepel az érzelmi függőség és a nem öngyilkossági krízishelyzetek kezelése is. A cég továbbá új szülői felügyeleti funkciókat is bevezetett, és egy életkor-becslő rendszeren dolgozik, amely automatikusan felismeri a gyermekfelhasználókat, és szigorúbb korlátozásokat alkalmaz.
Eközben Altman bejelentette, hogy a vállalat bizonyos korlátozásokat lazít és felnőtt felhasználók számára engedélyezni fogja az erotikus beszélgetéseket is, ami több szakértő szerint ellentmondásos döntés a mentális biztonság szempontjából.
Az MI és a pszichológiai felelősség határa

A ChatGPT mentális egészséggel kapcsolatos problémái egyre inkább létkérdéssé válnak az OpenAI számára. A cég technológiai fejlődése kétségtelen, de az adatok azt mutatják, hogy a mesterséges intelligencia már most is pszichológiai tényezőként van jelen emberek millióinak életében.
Azt tudjuk, hogy a ChatGPT képes empatikus válaszokat adni és egyelőre azt is tudjuk, hogy nem tudja felismerni a határt, amikor a valódi segítség már emberi beavatkozást igényel. Amíg ebben nem lesz változás, addig minden fejlesztés mögött ott marad az alapvető dilemmát felvető kérdés:
„Kinek beszélünk, amikor a géphez fordulunk segítségért?”




