A mesterséges intelligencia nem téved. Hazudik. Magabiztosan, meggyőzően, a szemed közé nézve. És te elhiszed, mert miért ne hinnéd el?
A magabiztos tévedés
Az MI-hallucináció – vagyis az a jelenség, amikor egy nyelvi modell valótlan információt állít tényként – nem hiba a rendszerben. A rendszer lényege.
A Suprmind 2026-os kutatása 40 nyelvi modellt tesztelt nehéz tudáskérdéseken. Az eredmény megdöbbentő. 40-ből mindössze négy modell volt hajlandó inkább bevallani, hogy nem tudja a választ, mint magabiztosan hazudni. A többi 36 inkább kitalált valamit, mintsem beismerte volna, hogy fogalma sincs.
De a legijesztőbb nem ez. Egy 2025-ös kutatás kimutatta, hogy az MI-modellek 34 százalékkal nagyobb valószínűséggel használnak magabiztos kifejezéseket – „biztosan”, „kétségtelenül”, „egyértelműen” – amikor téves információt generálnak, mint amikor igazat mondanak. Minél kevésbé tudja a választ, annál határozottabban állítja.
Miért hazudik?
A Science magazin 2025-ben publikált elemzése szerint a probléma a képzésben gyökerezik. A nyelvi modelleket arra tanítják, hogy mindig adjanak választ. Nem arra, hogy mondják azt, nem tudom.
A tréningadatokban nincs jutalom a bizonytalanságért. Ha a modell azt írja, hogy nem vagyok biztos, rosszabb pontot kap, mintha magabiztosan mond valamit, ami történetesen hamis. A rendszer szó szerint arra van kiképezve, hogy inkább hazudjon, mint hallgasson.
A Duke Egyetem 2026. januári blogbejegyzése felteszi a kérdést, amire a szakma nem szeret válaszolni. Miért hallucinálnak még mindig a nyelvi modellek 2026-ban? A válaszuk tömör. Mert a probléma architektúrális. Nem patchelhető. Kezelhető, csökkenthető, de nem szüntethető meg.
A számok nem megnyugtatóak
A legjobb modellek is legalább 0,7 százalékos arányban hallucinálnak egyszerű összefoglaló feladatoknál. Ez alacsonynak tűnik, amíg nem gondolsz bele, hány kérdést teszel fel naponta. Tíz kérdésből statisztikailag egy héten legalább egyszer kapsz hamis választ.
Jogi kérdéseknél az arány 18,7 százalék. Orvosi kérdéseknél 15,6 százalék. Minden ötödik-hatodik válasz téves. Egy New York-i ügyvéd karrierje tört ketté, amikor a ChatGPT által generált, nem létező bírósági precedenseket idézett a bíróságon. Nem akarta megtéveszteni a bírót. Meg volt győződve, hogy az MI-nek igaza van.
A te felelősséged
Az MI-hallucináció nem fog eltűnni. Nem a következő frissítéssel, nem a következő modellgenerációval. A nyelvi modellek működésének alapvető sajátossága.
A megoldás nem az MI elkerülése. A megoldás a kritikus gondolkodás. Ugyanaz, ami a hagyományos médiával szemben is működik. Nem hiszel el mindent, amit olvasol. Miért hinnél el mindent, amit egy chatbot mond?
Legközelebb, amikor az MI magabiztosan állít valamit, kérdezd meg magadtól. Honnan tudja? Van forrása? Ellenőrizted? Ha a válasz nem, akkor nem az MI hazudott. Te nem ellenőrizted.




