Egy Samsung MI-kutató szerint nem a méret, hanem az architektúra számít. A Tiny Recursive Model (TRM) mindössze 7 millió paraméterrel jobb eredményeket ért el az összetett gondolkodási feladatokban, mint a világ legnagyobb nyelvi modelljei.
A méret nem minden
A mesterséges intelligencia fejlesztésében sokáig uralkodó volt a hit, hogy a „nagyobb mindig jobb.” A technológiai óriások milliárdokat fektettek egyre nagyobb modellekbe, de Alexia Jolicoeur-Martineau, a Samsung SAIL Montréal kutatója szerint van egy másik út is.
A Tiny Recursive Model mindössze 7 millió paraméterrel – ami kevesebb mint 0,01%-a a vezető LLM-ek méretének – új rekordokat döntött olyan nehéz teszteken, mint az ARC-AGI intelligenciateszt.
A Samsung kutatása megkérdőjelezi azt a dogmát, hogy csak a méretnövelés viszi előre az MI-t, és egy sokkal fenntarthatóbb, hatékonyabb irányt kínál.
A nagy modellek logikai gyengesége
Bár a nyelvi modellek hihetetlenül jók az emberi szövegalkotásban, a többlépéses érvelésben gyakran elbuknak. Mivel tokenenként generálnak választ, egyetlen korai hiba az egész gondolatmenetet tönkreteheti.
A Chain-of-Thought („gondolatlánc”) technikát azért fejlesztették, hogy a modellek „hangosan gondolkodjanak”, mielőtt választ adnak. Ez azonban számításigényes, sok minőségi adatot igényel, és még így is gyakran hibás logikát eredményez.
Egy új megközelítés: a TRM működése
A Samsung kutatása a Hierarchical Reasoning Model (HRM) nevű korábbi rendszerre épít, amely két kis neurális hálózatot használt iteratív gondolkodásra. Ez a megoldás azonban bonyolult matematikai tételekre és biológiai párhuzamokra támaszkodott, amelyek nem voltak mindig érvényesek.
A TRM ezzel szemben egyetlen apró hálózatból áll, amely rekurzívan javítja saját érvelését és válaszát. A modell bemenetként kapja a kérdést, egy kezdeti választ és egy rejtett érvelési jellemzőt. Majd több körben finomítja a gondolkodását, végül frissíti a válaszát. Ez a folyamat akár 16-szor megismételhető, így a hálózat fokozatosan javítja saját hibáit, elképesztően kevés paraméterrel.
A kisebb modell jobban általánosít
A kutatás egyik legérdekesebb eredménye, hogy egy mindössze két rétegű modell jobban teljesített, mint egy négyrétegű verzió. A kisebb méret segített elkerülni a túltanulást, amely gyakori probléma a kisebb adathalmazoknál.
A TRM továbbá egyszerűsítette a tanulást: nem feltételezi, hogy az algoritmus konvergál egy fixpontra, hanem visszaterjeszti a hibát a teljes rekurzión. Ez az egyszerű változtatás a Sudoku-Extreme teszten 56,5%-ról 87,4%-ra emelte a pontosságot.
Kevesebb erőforrás, jobb eredmények
A számok önmagukért beszélnek:
- Sudoku-Extreme: 87,4% pontosság, szemben a HRM 55%-ával.
- Maze-Hard: 85,3% vs. 74,5%.
- ARC-AGI intelligenciateszt: 44,6% az ARC-AGI-1-en és 7,8% az ARC-AGI-2-n mindössze 7 millió paraméterrel, felülmúlva a 27 milliós HRM-et és még a legnagyobb rendszereket is, köztük a Gemini 2.5 Pro-t, amely 4,9%-ot ért el.
A TRM tanítása is hatékonyabb. Az Adaptive Computation Time (ACT) mechanizmus – amely eldönti, mikor javított eleget a modell – egyszerűsödött, így már nincs szükség második, drága futásra minden tanítási lépésben. Ez jelentősen csökkenti a számítási költségeket, miközben a teljesítmény nem romlik.
Új irány az MI-fejlődésben
A Samsung kutatása komoly érv az egyre növekvő modellméretek trendje ellen. Az eredmények azt mutatják, hogy a gondolkodni és önjavítani képes architektúrák sokkal hatékonyabban oldanak meg bonyolult problémákat, mint az óriási, erőforrás-igényes rendszerek.
A Tiny Recursive Model bebizonyította, hogy a mesterséges intelligencia jövője nem a gigászi adathalmazokban, hanem a kompakt, önreflektív gondolkodási modellekben rejlik.
