Ontwikkelaars die vlot met large language models kunnen werken, zijn een meer dan gegeerd goed in de wereld van kunstmatige intelligentie.
De vraag naar LLM-ontwikkelaars is op dit moment groter dan het aanbod. Zelfs in de wereld van AI is de technologie van large language models nog relatief nieuw en het aantal mensen met de nodige relevante skills is dan ook navenant.
Money talks
Een belangrijke factor is het financiële plaatje, ondanks recente vooruitgang om meer kostenefficiënt te werken. Uitgaven voor de training van een LLM kunnen al snel aardig oplopen en worden steeds groter naarmate het model groeit. Kijk maar naar wat het elke dag kost om ChatGPT te laten draaien.
Polyvalentie
Daarnaast moeten LLM-ontwikkelaars ook over een uitgebreide kennis beschikken op gebied van onder andere machine learning, codering, tokens, autoregressieve modellen, transformers, adapters en reinforcement learning. Ze moeten bovendien werken in een infrastructuur met meerdere GPU’s, de nodige data verzamelen om een LLM te trainen en thuis zijn in prompt engineering.
Dat is een stevige waslijst aan kwalificaties, waar dus niet heel veel mensen over beschikken. Te weinig, in elk geval.
lees ook
Train AI-modellen op basis van data in Snowflake met Nvidia
Bedrijfsbeleid
De kant van mogelijke werkgevers is ook een factor. Top personeel kost geld, dus wie een getalenteerde LLM-ontwikkelaar wil aannemen, die moet daar diep voor in de buidel graaien.
Er komt ook de nodige ondersteuning bij kijken: er moeten bijvoorbeeld voldoende mogelijkheden zijn om data te verzamelen, om die AI-modellen te trainen. Daarvoor is een MLOps-team (een combinatie van Machine Learning en DevOps) toch eerder een vereiste dan een luxe.
Het gaat dus niet alleen om die ene ontwikkelaar. Hoewel dat natuurlijk de spil is waarrond alles draait.
Gezien het belang van kunstmatige intelligentie, zelfs in de publieke sector, lijkt het sterk dat er in de nabije toekomst niet veel meer opleidingsmogelijkheden komen.