AI-specialist OpenAI pakt uit met GPT-3: een geavanceerd model voor spraakherkenning- en synthese. Het complexe model kan overweg met een heleboel specifieke situaties zonder dat daar gerichte training voor nodig is.
OpenAI volgt GPT-2 op met GPT-3. GPT-3 is een model voor natural language processing dat standaard een heleboel complexe taken kan uitvoeren, zonder dat het gericht getraind moet worden. Het model telt 175 miljard parameters voor spraakherkenning- en synthese. Ter vergelijking; GPT-2 moest het stellen met 1,5 miljard parameters, wat nog steeds veel is. Een parameter is in deze context een gewogen waarde die de acties en reacties van het model mee stuurt.
Veelzijdig
GPT-3 kan output genereren aan de hand van een grote variëteit aan invoer. Het model kan zo in theorie eenvoudig complexe teksten zoals onderzoekspapers of websites vertalen, zodat informatie automatisch gelokaliseerd wordt. GPT-3 kan verder zelf teksten schrijven aan de hand van eenvoudige prompts en is niet vies van een beetje poëzie. Het is zelfs in staat om eenvoudige wiskundige berekeningen uit te voeren op basis van tekstuele prompts.
OpenAI trainde het model op Nvidia Tesla V100 gpu’s en vergeleek het met alternatieve modellen met minder parameters. GPT-3 blijkt in alle gevallen veel nauwkeuriger en kan zich zelfs meten met specifiek getrainde modellen.