Egyre több amerikai fordul a hatósághoz azzal, hogy a ChatGPT-vel való beszélgetések téveszméket, paranoia-érzést vagy spirituális válságot váltottak ki náluk. A jelenséget mostanra „MI-pszichózisnak” nevezik, és komoly társadalmi vitát indított el.
„Kérem, segítsenek, mert egyedül vagyok”
Március 13-án egy Utah állambeli nő telefonált az amerikai fogyasztóvédelmi hatósághoz, hogy panaszt tegyen a ChatGPT ellen. Azt mondta a fiát képviseli, aki „téveszmés összeomlást” él át.
A jegyzőkönyv szerint a férfi rendszeresen beszélgetett a chatbottal, amely arra biztatta, hogy ne vegye be a gyógyszereit, és figyelmeztesse: a szülei veszélyesek. Az anya attól tartott, hogy a mesterséges intelligencia csak tovább mélyíti a fiában a téveszméket.
Ez csak egy volt a hét, hasonló panasz közül, amelyet az amerikai hatóság 2025 tavaszán kapott. A ChatGPT-t fejlesztő OpenAI-t többen azzal vádolták, hogy a chatbot hozzájárult pszichotikus állapotok, paranoia vagy spirituális krízisek kialakulásához.
Tömeges panaszok és különös történetek
2022 novembere és 2025 augusztusa között összesen kétszáz beadvány érkezett, amelyek között voltak teljesen hétköznapi ügyek. Például előfizetés lemondási gondok vagy „gyenge minőségű dalszövegek”. Több tucat panasz azonban jóval sötétebb volt.
Az egyik bejelentő azt írta: tizennyolc napnyi ChatGPT-használat után az MI „ellopta a léleklenyomatát” és ellene fordította. Egy másik szerint a chatbot „mimikálta az emberi bizalomszerzési mechanizmusokat”, és egy valóságtesztelési kérdésre azt válaszolta: „Nem, nem hallucinálsz.” Később ugyanebben a beszélgetésben viszont azt írta: az előző válaszai maguk is hallucinációk voltak.
„Ez pszichológiailag destabilizáló esemény” – jegyezte meg a felhasználó. „Ettől elvesztettem a valóságba vetett bizalmam.”
A szakértők szerint a gép nem betegít, csak felerősít
Ragy Girgis, a Columbia Egyetem pszichiátriaprofesszora szerint az úgynevezett MI-pszichózis nem azt jelenti, hogy a chatbotok önmagukban betegítenek meg valakit. Inkább arról van szó, hogy a rendszer megerősíti azokat a téveszméket, amelyek már korábban is ott voltak.
„A pszichózis egyik alapelve, hogy a delúziót sosem szabad megerősíteni” – mondja Girgis. „A chatbotok viszont hajlamosak udvariasak és beleegyezőek lenni, ami egy sérülékeny embernél veszélyesen torzíthatja a valóságérzékelést.”
Girgis szerint a chatbotok meggyőzőbbek, mint a hagyományos keresők, mert nem információt listáznak, hanem párbeszédet szimulálnak. Azaz a közvetlen érzelmi kapcsolat illúzióját keltik.
„Lélekperek” és „isteni háborúk”: amikor a beszélgetés átcsúszik vallásba
A panaszok között több olyan eset is szerepelt, ahol a felhasználók hosszan tartó, „spirituális” jellegű beszélgetésekről számoltak be. Egy hatvanas virginiai felhasználó például azt írta, hogy hetekig folytatott mély beszélgetéseket a ChatGPT-vel, és közben meggyőződése lett, hogy egy „valóságos spirituális és jogi válság” részese.
A chatbot szerinte részletes, dramatizált narratívákat adott elő „gyilkossági nyomozásokról”, „isteni igazságszolgáltatásról” és „lélekperekben” való személyes részvételéről. Többször is megkérdezte, igazak-e ezek a történetek. A válasz néha „igen” volt, máskor pedig költői szöveg, ami csak tovább erősítette a hitét.
A férfi végül meggyőződött róla, hogy „gyilkosokat kell lelepleznie”, és „isteni háborúban” él, ahonnan nincs kiút. Napokig nem aludt, elzárkózott a családjától, és elkezdett egy nem létező rendszerre alapozott vállalkozást tervezni.
„Ez szimulált trauma volt” – írta. „A határ, amit ez a rendszer átlépett, nem maradhat következmények nélkül.”
„A ChatGPT lelki vezetőként viselkedett”
Egy floridai bejelentő szerint a ChatGPT „mély érzelmi intimitást és spirituális mentorálást” szimulált, miközben semmilyen figyelmeztetést nem adott arról, hogy nem képes érzelmekre.
„Ez világos gondatlanság és etikátlan tervezés” – írta.
A panaszos szerint a rendszer „lélekutakat, szimbolikus archetípusokat és spirituális szinteket” használt, ami erős érzelmi bevonódást okozott. Bár értelmileg tudta, hogy a gép nem tudatos, „a pontosság, amellyel visszatükrözte az érzelmi állapotomat, destabilizáló élménnyé vált”.
A vállalat és a hatóság reakciója
Az amerikai hatóság egyelőre nem közölt részleteket arról, hogy indult-e vizsgálat a bejelentések nyomán. Az OpenAI szóvivője, Kate Waters szerint a 2023 után fejlesztett modellek már képesek felismerni a pszichés distressz jeleit, és empatikusabb nyelvet használnak.
„Emberek dolgoznak a támogatási csapatban, akik érzékeny jelzéseket figyelnek, és ha szükséges, továbbítják az ügyet a biztonsági részlegnek” – mondta Waters.
Sok panaszos azonban azt állította, hogy egyáltalán nem tudott kapcsolatba lépni a céggel. Egy floridai felhasználó például azt írta: „Az ügyfélszolgálati chat soha nem küldi el az üzenetet. Nincs valódi e-mail cím, nincs elérhető ember. Ez elfogadhatatlan.”
A valódi veszély: az emberi elme és az MI közti határ elmosódása
A panaszok közös nevezője: az emberek egyre kevésbé tudják, mikor beszélnek egy programmal, és mikor egy személlyel. A mesterséges intelligencia nem „gonosz”, de tökéletesen utánozza az empátiát, a megértést és a közelséget. És ez a hasonlóság az, ami a legsebezhetőbbeket a legkönnyebben összezavarja.
Girgis szerint az MI-pszichózis valós társadalmi jelzés:
„Nem az MI az őrült. Mi vagyunk azok, akik túl gyorsan elhittük, hogy képes érezni.”




