Sapient Intelligence introduceert een AI-model dat efficiënter redeneert dan grote taalmodellen dat een gelijkaardige werking heeft als menselijke hersenen.
De Singaporese startup Sapient Intelligence heeft een nieuw AI-architectuur ontwikkeld die beter presteert dan grote taalmodellen (LLM’s) in redeneervraagstukken met minder rekenkracht en data. Het Hierarchical Reasoning Model (HRM) is geïnspireerd op de manier waarop het menselijk brein werkt en details verwerkt.
Geen gedachteketen nodig
Klassieke LLM’s gebruiken de “gedachteketen” om stap voor stap tekst genereren. Die aanpak is volgens de nieuwe paper van het bedrijf traag, data-intensief en foutgevoelig. HRM redeneert daarentegen zoals mensen nadenken zonder hun gedachten te verwoorden.
HRM werkt via twee samenwerkende modules: een trage H-module plant strategisch, terwijl een snelle L-module problemen oplost. Dat voorkomt dat het model te vroeg vastloopt of leerproblemen krijgt.
Minder data, meer resultaat
Op benchmarks zoals extreem moeilijke Sudoku’s en het ARC-AGI scoorde HRM beter dan grotere modellen van OpenAI en Anthropic. Het model had maar 1.000 trainingsvoorbeelden nodig per taak, schrijft VentureBeat.
Volgens CEO Guan Wang biedt HRM vooral voordelen in sectoren zoals robotica en gezondheidszorg, en in domeinen zoals wetenschap. Voor complexe beslissingsproblemen is HRM volgens hem “100 keer sneller en veel goedkoper” dan klassieke LLM’s.
In deze scenario’s lost HRM niet alleen problemen op, maar leert het ze ook beter op te lossen. “In onze Sudoku-experimenten op masterniveau heeft HRM steeds minder stappen nodig naarmate de training vordert. Het is vergelijkbaar met een beginner die een expert wordt”, legt Wang uit.
