Három rivális, egy ellenség

Három rivális, egy ellenség

Az OpenAI, az Anthropic és a Google összefogott. Nem a te érdekedben.

Amikor a konkurencia összeül

Múlt hétfőn valami szokatlan dolog történt a szilícium-völgyi MI-iparban. Három cég, amelyek egymás torkát harapják a frontmodell-versenyben, közös közleményt adott ki. Az OpenAI, az Anthropic és a Google bejelentették, hogy a Frontier Model Forum keretein belül megosztják egymással, hogyan próbálják kínai riválisaik feltörni a modelljeiket. Olvasd el újra. Három konkurens, aki naponta egymás felhasználóiért harcol, most együtt védekezik.

A célpont nevesítve van. DeepSeek, Moonshot AI, MiniMax. Az Anthropic dokumentálta a támadást. 24 ezer hamis fiók. 16 millió jogosulatlan üzenetváltás a Claude-dal. A módszer neve desztilláció, vagyis az a technika, amikor egy nagy modell válaszaiból tanítasz egy kisebbet. Önmagában nincs ezzel baj. Minden MI-labor használja a saját modelljeire. A probléma ott kezdődik, amikor a rivális modelljéből tanítasz — és engedély nélkül.

Mi az a desztilláció, és miért kell tudnod róla

A desztilláció, angolul distillation, az MI-kutatás egyik legelterjedtebb módszere. Egyszerűen fogalmazva: van egy nagy, drága „tanármodell”, és van egy kisebb, olcsóbb „diákmodell”. A diák a tanár válaszaiból tanul, és idővel közel azonos teljesítményre képes — a tanítási költség töredékéért. A Stanford Alpaca projektje 2023-ban megmutatta, hogy ez működik. Azóta az iparág alapeszköze lett.

De van egy határ. Ha a saját modelleddel csinálod, az kutatás. Ha a konkurensével, az lopás. Vagy legalábbis szerződésszegés, de az OpenAI a kongresszus előtt februárban már szabadalmi lopásról beszélt.

Kiberbiztonsági szövetség vagy kartell?

Az együttműködés mintája ismerős. A kiberbiztonságban évek óta bevett szokás, hogy a cégek megosztják egymással a támadási mintákat. Ha az egyik felismer egy új fenyegetést, riasztja a többit. Most a három frontier lab ugyanezt csinálja, csak az MI-modellekre.

Csakhogy egy kiberbiztonsági cégnél ez tiszta védekezés. Egy MI-labnál bonyolultabb a helyzet. Az OpenAI, az Anthropic és a Google nem jótékonysági szervezetek. Üzleti érdekük, hogy senki ne tudja olcsón lemásolni a termékeiket. A „nemzetbiztonsági kockázat” érvelés igaz lehet, de üzletileg is rendkívül kényelmes. A két dolog megint egybeesik, mint a Mythos-sztorinál. Aki a biztonságra hivatkozik, gyakran a versenyelőnyét védi. Nem is kell rosszindulatot feltételezni hozzá — elég az emberi természet.

A másik oldal

Van, aki azt mondja, erre szükség van. Hogy a kínai laborok valóban kihasználják az amerikai modellek nyitottságát, és hogy a desztillált másolatok biztonsági szűrők nélkül kerülnek piacra. Ez valódi kockázat. Ha egy MI-modell tudásából kiszedik a biztonsági korlátokat, a maradék szabadon felhasználható fegyverhez, dezinformációhoz, megfigyeléshez.

De gondolj bele, mi következik ebből. Ha a három legnagyobb MI-fejlesztő összezár, és közösen dönt arról, ki férhet hozzá a technológiájukhoz, az nem csak védekezés. Az egy új típusú kapu. Egy kapu, amelyet sem te, sem én, sem egyetlen megválasztott testület nem ellenőriz. A Frontier Model Forum nem demokratikus intézmény. Egy vállalati szövetség, amelynek az érdekei nem feltétlenül esnek egybe a tiéiddel.

Frédéric Bastiat, a 19. századi közgazdász azt írta, hogy amit látsz — a szellemi tulajdon védelme — mindig elrejti azt, amit nem látsz: hogy ki szorul ki a tudásból és miért.

Az MI-desztilláció elleni harc jogos. De az, hogy ki vezeti ezt a harcot, és milyen feltételekkel, legalább annyira fontos kérdés.

A kérdés a tiéd.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél

Hozzászólás

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük