A deepfake technológia elérte a fordulópontot. Miközben a filmipar forradalmat ünnepel, a vállalatok a bizalom válságával küzdenek.
A valóság, amit a gép ír újra
A „deepfake” kifejezés a deep learning és a fake szavakból született. Olyan mesterségesen előállított képek, videók és hangok tartoznak ide, amelyek valóságosnak tűnnek, de egyetlen pillanatuk sem az. A technológia ma már bárki számára elérhető, és néhány perc alatt képes valakit megszólaltatni, akár a tudta nélkül. A filmipar gyorsan felismerte a lehetőségeket.
A Netflix például az argentin sci-fi sorozat, The Eternaut látványterveiben először használt generatív mesterséges intelligenciát. Az egyik jelenetben, ahol egy épület omlik össze, az MI tízszer gyorsabban dolgozott, mint a hagyományos vizuális effektek. A költségek töredékére estek, a minőség megmaradt. A vállalat társigazgatója, Ted Sarandos, büszkén nyilatkozott:
„Ez az első alkalom, hogy MI által készített végleges jelenet került képernyőre egy Netflix-produkcióban.”
A stáb örült a technológiai áttörésnek. De ami Hollywoodban forradalom, az az üzleti világban fenyegetéssé vált.
A Ferrari sztori

A generatív MI ma már a képek és filmek gyártása mellett, képes hangokat és személyiségeket is másolni. A Ferrari egyik vezetője néhány hónapja majdnem besétált a csapdába. WhatsApp-üzenetet kapott valakitől, aki a cég vezérigazgatójának, Benedetto Vignának adta ki magát. A profilkép a jól ismert logó előtt pózoló Vignát ábrázolta, az üzenetek sürgősek voltak:
„Nagy akvizíció előtt állunk. Szükségem lenne a segítségedre.”
Majd jött a második üzenet:
„Készülj aláírni az NDA-t(Non-Disclosure Agreement, magyarul titoktartási megállapodás), a jogász már úton van. A tőzsde értesítve, maradj diszkrét.”
A vezető gyanút fogott, amikor a „vezérigazgató” hívást indított. A hang pontosan olyan volt, mint Vignáé, még az olasz akcentus is stimmelt, csak éppen túlságosan tökéletesen. A beszéd ritmusa, a lélegzetvételek közti apró szünetek mesterségesnek tűntek. A gyanútlanul udvarias beszélgetés közben a vezető egy személyes kérdést tett fel:
„Melyik könyvet ajánlottad múltkor, amit annyira dicsértél?”
A hívás azonnal megszakadt. A hamis Vigna nem tudta a választ és ezzel lebukott. Egyetlen kérdés elég volt ahhoz, hogy a Ferrari megússzon egy többmilliós csalást.
A reklámvilág sem immunis
A brit WPP, a világ legnagyobb reklámügynöksége sem járt jobban. Csalók a vezérigazgató, Mark Read fotóját és hangját használták fel, hogy pénzt és adatokat csaljanak ki egy belső videóhíváson. A támadók a Microsoft Teams platformon egy cégvezetőtől kértek bizalmas dokumentumokat, titkos felvásárlásra hivatkozva. A támadás után Read belső körlevelet küldött több ezer alkalmazottnak:
„A technológia már nemcsak az e-mailjeinket hamisítja. Ne higgyetek el semmit csak azért, mert ismerős az arc vagy a hang.”
A deepfake támadások egyre kifinomultabbak, és már nem az adathalász e-mailek világában mozognak. Mostantól a hang, az arc és a gesztus is fegyver.
Az MI teremtette veszély ellen az ember maradt az egyetlen védelem
A Ferrari és a WPP története ugyanannak az új korszaknak a tünete. A támadások nem a technológiát, hanem az emberi pszichológiát célozzák. A mesterséges intelligencia nem rendszereket tör fel, hanem bizalmat. A kiberbiztonsági szakértő Rachel Tobac, a SocialProof Security vezetője, szerint a megoldás nem új szoftver, hanem régi szokás: az ellenőrzés.
„A legfontosabb, hogy minden fontos döntés előtt kérjünk második megerősítést, akár telefonon, akár személyesen” – mondja.
A vállalatok egyre több visszahívási protokollt vezetnek be. Ha egy üzenet sürgető, gyanúsan személyes vagy túl részletes, az első lépés a megállás. Nem azonnal válaszolni, hanem kérdezni, ez az új védekezési reflex. A képzés is kulcsfontosságú. A dolgozóknak fel kell ismerniük a mesterséges beszéd apró hibáit, a ritmustalan szüneteket, a túl tökéletes hangzást. A deepfake gyakran azzal bukik le, hogy túl valóságos.
MI harcol az MI ellen

A cégek most ugyanazzal a technológiával próbálnak védekezni, ami a támadásokat létrehozta. Az új MI-alapú felismerő rendszerek az arc mikro mozdulatait elemzik, a szemvillanásokat és a pupilla tágulását. Ezeket a jeleket a deepfake még nem tudja tökéletesen utánozni.
A pénzügyi szektorban ez a technológia már a mindennapok része. Az ügyfélazonosítás során például liveness detection vizsgálja, hogy a képernyőn tényleg ember ül-e. Emellett a viselkedési biometrika is egyre elterjedtebb. A gépelési sebesség, egérmozgás, kattintási mintázat mindenkinél egyedi, és nehezen másolható. A probléma, hogy a csalók is tanulnak. A támadások technikai szintje gyorsabban fejlődik, mint a védekezésé. Ahogy egy kiberbiztonsági vezető fogalmazott:
„Ez macska-egér játék, csak itt mindkettő mesterséges.”
A bizalom új ára
A Deloitte előrejelzése szerint a generatív MI által támogatott csalások 2027-re 40 milliárd dollár veszteséget okozhatnak az Egyesült Államokban. A nemzetközi mérnöki vállalat, Arup, már saját bőrén tapasztalta meg a veszélyt. 26 millió dollárt veszített, miután deepfake videóhívásban sikerült megtéveszteni a vezetőit. A cég informatikai igazgatója, Rob Greig, szerint az MI legnagyobb fegyvere az, hogy az emberi érzékeinket használja ellenünk:
„A látvány és a hang mindig is a hit alapja volt. Most ez az, amit többé nem hihetünk el.”
A technológia az adathamisítás mellett most már az érzékelést is hamisítja. És ha a látott és hallott valóság többé nem megbízható, akkor a bizalom maga válik a legdrágább valutává.
Valóság vékony jégen
A deepfake korszakában már nem elég felismerni, hogy valami hamis. Meg kell tanulni nem hinni, legalábbis addig, amíg a bizonyíték emberi kézből nem érkezik. Az MI elérte azt, amire a történelemben eddig csak a propaganda volt képes: újraírni a valóság érzékelését.




