A Sony fellép az MI-torzítás ellen

A Sony új, etikus adatbázist hozott létre, hogy mérhetővé tegye, mennyire torzítanak a gépi látásrendszerek. A cél: tisztább, átláthatóbb és igazságosabb MI-modellek.

Egy etikus adatbázis születése

ai.sony

A mesterséges intelligencia modellek gyakran mutatnak torzítást: például bizonyos bőrszínű embereket társítanak bűnözőkhöz, vagy feltételezik, hogy egy nő nem lehet tűzoltó. Ezekre a problémákra reagálva a Sony AI új adatbázist hozott létre, amely a gépi látásrendszerek igazságosságát méri és vizsgálja.

A Fair Human-Centric Image Benchmark (FHIBE), röviden „Fee-bee”, az első nyilvánosan elérhető, hozzájárulással gyűjtött, világszinten sokszínű tesztkészlet, amely emberközpontú MI-modellek
torzítását értékeli. Alice Xiang, a Sony AI kutatási vezetője és a cég MI-irányításért felelős globális vezetője szerint, a gépi látás korántsem objektív.

„Sokan azt hiszik, hogy a számítógépes látás objektív, mert adat és algoritmus alapján működik. Ez tévedés. A modellek torzítanak, mert a tanítóadatok is torzítottak.”

A gép sem tévedhetetlen

A Xiang által említett példák között szerepel, hogy Kínában több esetben mobilos arcfelismerők tévesen azonosítottak személyeket. Előfordult, hogy egy családtag fel tudta oldani a telefont, mert a modell nem volt elég pontos az ázsiai arcok megkülönböztetésében. Ez a hiányos adatforrások és a nem reprezentatív tréningadatok következménye lehetett.

„A legtöbb vita az arcfelismerés körül épp emiatt robbant ki. A torzított MI hibás azonosításokhoz, letartóztatásokhoz, vagy adatvédelmi incidensekhez vezethet” – mondta Xiang.

A legtöbb adatbázis engedély nélkül készült

A Sony szerint a FHIBE legfontosabb újítása, hogy a benne szereplő képek mind hozzájárulással készültek. Xiang rámutatott, hogy a legtöbb korábbi referenciaadatbázis egyszerűen internetről letöltött képekre épült, anélkül, hogy az érintettek ehhez hozzájárultak volna.

„A legtöbb gépi látásra használt adatbázis engedély nélkül gyűjtött képeket tartalmaz, vagy nem átlátható, hogyan történt a hozzájárulás. Ezek nem elég sokszínűek, és nem alkalmasak széleskörű tesztelésre.”

ai.sony

A Sony új megközelítése

A FHIBE több mint 10 000 képet tartalmaz, közel 2000 személyről, 81 országból. Az adatokhoz részletes címkék és leírások tartoznak, mint például arckeretek, kamera beállítások vagy szegmentációs maszkok. Ezek a részletes jelölések lehetővé teszik, hogy a fejlesztők pontosabban elemezzék a modellek működését.

A Sony már most belső tesztekben is használja az adatbázist és kimutatta, hogy egyes MI-modellek pontatlanabbul azonosítanak személyeket, akik „She/Her” névmásokat használnak. Ennek oka gyakran a frizurák sokfélesége. Más modellek az állásra vonatkozó semleges kérdésekre sztereotípiákkal válaszoltak, például bizonyos csoportokat gyakrabban társítottak bűnözői tevékenységgel.

Etikus adatgyűjtés és felelősség

A projekt célja, hogy a fejlesztők felelősebben kezeljék az adatokat. A Sony AI szerint a FHIBE nemcsak a torzítás mérését segíti, hanem példát mutat arra is, hogy az etikus adatgyűjtés megvalósítható.

„A FHIBE bebizonyítja, hogy az adatokat lehet engedéllyel, tisztességesen gyűjteni. Ez az iparágban most kivétel, de így kellene működnie” – mondta Xiang.

A Sony kezdeményezése illeszkedik a vállalat MI Etikai Irányelveihez, amelyeket már több üzletág is követ. Az adatbázist a cég a Sony Group AI Ethics Guidelines keretében használja. Az Egyesült Államokban jelenleg kevés kormányzati támogatás van az ilyen projektekre. A Trump-kormány 2025-ös „America’s AI Action Plan” például nem említ sem etikát, sem igazságosságot. Európában viszont az EU AI Act és több amerikai tagállam, már előírja a torzítási vizsgálatokat bizonyos kockázatos területeken.

„A FHIBE nem old meg mindent, de megmutatja, hogy a jó gyakorlatok bevezethetők és érdemes beruházni az etikus adatkezelésbe” – mondta Xiang.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél