Google maakt Gemini 2.5-modellen algemeen beschikbaar

Google maakt Gemini 2.5-modellen algemeen beschikbaar
Bron: Google

Iedereen kan vanaf nu gebruik maken van de nieuwe Gemini 2.5-modellen.

Google heeft vandaag Gemini 2.5 Flash-Lite gelanceerd, een extra efficiënte versie van zijn bestaande AI-modellen die gericht zijn op snelle en goedkope verwerking van prompts. Daarnaast zijn ook Gemini 2.5 Pro en Flash algemeen beschikbaar.

Sneller en goedkoper

Gemini 2.5 werd officieel voorgesteld in maart, maar de modellen waren alleen maar in preview beschikbaar. Nu zijn ze algemeen uitgerold. Ze zijn gebaseerd op een ‘mixed-of-experts’-architectuur, wat betekent dat ze elk meerdere neurale netwerken hebben. Als een gebruiker een prompt ingeeft, wordt maar één van die netwerken geactiveerd.

Het Flash-Lite-model verwerkt prompts nog sneller dan Flash. Google stelt dat het ontworpen is voor toepassingen zoals vertalingen en classificaties, waarbij lage latentie nodig is. “2.5 Flash Lite heeft over het algemeen een hogere kwaliteit dan 2.0 Flash-Lite op vlak van coderen, wiskunde, wetenschap, redeneren en multimodale benchmarks.” Flash-Lite kost 0,10 dollar per miljoen inputtokens, dus tien keer minder dan het krachtigste Pro-model.

Alle 2.5-modellen zijn multimodaal en ondersteunen tot een miljoen tokens per prompt. Ze draaien op Google’s eigen TPUv5p AI-chips. De prijs van het middelste Flash-model wordt verhoogd: inputtokens kosten nu 0,30 dollar per miljoen tokens in plaats van de eerdere prijs van 0,15 dollar. De aparte prijs voor de denkmodus verdwijnt. Via de denkmodus krijgt het model een hogere outputkwaliteit omdat hij langer nadenkt over zijn reacite.