GPT-3.5 en GPT-4 kunnen nu code ontwikkelen op basis van een beschrijving van programmeerfuncties. Nog beter nieuws: de prijs per token verlaagt.
OpenAI kondigt nieuwigheden voor GPT-4 en de ‘turboversie’ van voorganger GPT-3.5. Naast een verhoogde ‘stuurbaarheid’ nemen ook de codeercapaciteiten van de modellen toe. Met een nieuwe functie genaamd function calling kan de ontwikkelaar een beschrijving van een programmeerfunctie en GPT doet de rest.
lees ook
OpenAI weerhoudt nog steeds training voor GPT 5
Op basis van die beschrijving weet het model dan welke plug-in het moet aanroepen. De AI haalt de nodige data uit je tekst en zet natuurlijke taal om naar JSON, een veelgebruikte ‘taal’ om computerprogramma’s met elkaar te laten ‘spreken’, om de functie uit te voeren. Meer technische uitleg of voorbeelden van hoe dat proces te werk gaat, vind je in deze blog van OpenAI.
Meer tokens, minder betalen
Daarnaast breidt OpenAI ook het maximale aantal ‘tokens’ dat GPT-3.5 Turbo kan verwerken uit van 4.000 naar 16.000. GPT-4 heeft een limiet van 32.000 tokens, om het verschil te illustreren. De GPT-modellen zetten lettertekens uit onze taal om naar tokens. Het aantal tokens dat GPT telt in een woord of zin komt niet automatisch overeen met het aantal tekens dat je hebt ingetypt. We verwijzen je opnieuw graag naar een blog waar je meer kan lezen over dit mechanisme.
OpenAI heeft verder nog het leuke nieuws dat ontwikkelaars nu meer tokens krijgen voor minder geld. De originele turboversie van GPT-3.5 kost je nu 0,0015 dollar per duizend inputtokens en 0,002 dollar per duizend outputtokens. De versie die 16.000 tokens aankan 0,003 dollar en 0,004 dollar per tokens. Het text-embedding-ada-002 zakt 75 procent in prijs tot 0,0001 dollar per duizend tokens. Hoeveel het gebruik van de betaalde API’s je zou kosten, kunnen we helaas niet voor je uitrekenen.