Az Anthropic nemet mondott a Pentagonnak. Az OpenAI aláírt. Február végén kiderült, hol húzódnak az MI etikai vörös vonalai és ki lépi át őket.
Amikor a Pentagon kopogtat
Dario Amodei, az Anthropic vezérigazgatója februárban egy egyszerű kérdéssel szembesült. Pete Hegseth védelmi miniszter azt követelte, hogy a Claude MI-modellt engedjék használni tömeges megfigyelésre és autonóm fegyverrendszerekben. Olyan drónokban, amik emberi jóváhagyás nélkül hoznak halálos döntéseket.
Amodei nemet mondott. Nem köntörfalazva, nem kitérően. Azt mondta, vannak helyzetek, amikor az MI „ahelyett, hogy védené, aláássa a demokratikus értékeket”. A Pentagon válasza sem maradt el. Ha nem engedelmeskedsz, beszállítói kockázatnak minősítünk.
Február 27-én ez meg is történt. Trump elnök elrendelte, hogy az amerikai kormányzat szüntessen meg minden kapcsolatot az Anthropickal. Az MI-etika történetének eddigi legdrámaibb pillanata volt.
Az OpenAI belépett
Alig 48 órával az Anthropic kitiltása után az OpenAI bejelentette a saját Pentagon-megállapodását. Sam Altman azt ígérte, a szerződés nem lépi át azokat a vörös vonalakat, amiket az Anthropic védett. Csakhogy a szerződés szövegét nem hozták nyilvánosságra.
Az MIT Technology Review szerint pontosan ez a probléma. Az OpenAI szóbeli ígéretei és a Pentagon hivatalos megerősítése között nincs ellenőrizhető kötelező erő. Sam Altman maga is elismerte, hogy a deal „opportunistának és hanyagnak tűnhetett„.
A felhasználók nem vártak a jogi elemzésre. A ChatGPT törlések egy nap alatt 295 százalékkal ugrottak. A Claude pedig az App Store első helyére került.
Az OpenAI belső kommunikációjából kiszivárgott reakciók sem árulnak el nyugalmat. A CNN szerint több alkalmazott „mély tiszteletet” érez az Anthropic iránt, amiért kiállt. A sajátjuk lépését nehezebben emésztették meg.
Mit jelent ez nekünk?
Európai felhasználóként talán távolinak tűnik, hogy az amerikai védelmi minisztérium melyik MI-céggel szerződik. De nem az.
Az MI-modellek, amiket naponta használsz, ugyanazok, amiket a Pentagon akar bevetni. Ha egy fejlesztő cég enged a katonai nyomásnak, az a modell etikai kereteit is átformálja. Az MI-etika – vagyis a mesterséges intelligencia fejlesztését irányító erkölcsi elvek – nem elvont, és nem is filozófia. Közvetlen hatással van arra, milyen válaszokat kapsz, milyen korlátokat állítanak, és ki ellenőrzi a rendszert.
Az Európai Unió AI Act szabályozása pont ezt próbálja keretbe foglalni. De a törvény csak annyit ér, amennyit betartatnak belőle. És amit most láttunk, az az, hogy egy amerikai kormány képes napok alatt kizárni egy céget a piacról, mert az etikai elveihez ragaszkodott.
A kérdés nem technológiai. Az a kérdés, hogy elfogadjuk-e, ha a fegyvergyártás logikája határozza meg, milyen MI-t fejlesztenek nekünk.
A vörös vonal mindannyiunké
Az Anthropic nem azért mondott nemet, mert nem akart pénzt keresni. Kétszázmillió dolláros szerződésről mondott le. Azért mondott nemet, mert úgy gondolta, vannak dolgok, amik nem eladók.
Ez a döntés mindannyiunkat érint. Nem azért, mert az MI fegyvereket fejleszt – hanem azért, mert az MI-t fejlesztő cégek döntései alakítják azt a technológiát, amit te is használsz reggel a kávéd mellett.
Legközelebb, amikor chatbotot választasz, ne csak azt nézd, melyik ír jobb szöveget. Nézd meg azt is, ki áll mögötte, és milyen kompromisszumokat kötött azért, hogy ott lehessen.




