De Gemini-modelfamilie krijgt er twee nieuw experimentele versies bij en de beschikbaarheid van bestaande modellen wordt vergroot.
In een blog kondigde Google aan dat het Gemini 2.0 Flash algemeen beschikbaar maakt via Google AI Studio en Vertex AI, en nieuwe experimentele modellen introduceert.
Gemini 2.0 Pro en 2.0 Flash Thinking Experimental
Naast de bredere uitrol van Gemini 2.0 Flash, lanceert Google een experimentele versie van Gemini 2.0 Pro. Dit model blinkt uit in complexe prompts en codering en beschikt over een contextvenster (dus de hoeveelheid tekst die het model kan onthouden) van 2 miljoen tokens. Hierdoor kan het uitgebreide documenten en video’s verwerken en zelfs tools zoals Google Search aanroepen.
Daarnaast heeft Google het 2.0 Flash Thinking Experimental-model geïntroduceerd. Dit experimentele model, gebaseerd op 2.0 Flash Thinking, is geoptimaliseerd voor logica en redeneren en kan prompts in meerdere stappen verwerken. Het is bedoeld om gebruikers inzicht te geven in de denkprocessen achter de gegenereerde antwoorden.
2.0 Flash-Lite: Klein en kostenefficiënt
Een andere nieuwe toevoeging is Gemini 2.0 Flash-Lite, het kostenefficiëntste AI-model van Google. Het behoudt de snelheid en prijs van 1.5 Flash, maar overtreft het model in de meeste benchmarks. Met een contextvenster 1 miljoen tokens en multimodale invoer is het ideaal voor sectoren zoals marketing en retail. Flash-Lite wordt nu als openbare preview uitgerold via Google AI Studio en Vertex AI.