Datacenters en neurale netwerken: waarom Intel plots zelf grafische kaarten ontwikkelt

Parallel troef
Nu de Wet van Moore steeds meer een afgesloten hoofdstuk in de chipgeschiedenis blijkt, groeit het belang van parallel rekenwerk sneller dan ooit. Vroeger was de processorkern en de bijhorende kloksnelheid de doorslaggevende factor in de prestaties van het gros van de toepassingen. Rekenwerk vandaag vertrouwt steeds meer op enorme hoeveelheden van gelijktijdige maar iets eenvoudigere berekeningen. Voor de ontluikende domeinen van big data analytics, kunstmatige intelligentie en machine learning is die parallelle rekenkracht van het grootste belang. Die domeinen zijn al lang geen niche meer. Zowat ieder bedrijf kan dezer dagen de vruchten plukken van de evoluties met dank aan de publieke cloud voor eenvoudig toegankelijke rekeninfrastructuur, en kant-en-klare Software-as-a-Service-oplossingen om er zelf mee aan de slag te gaan. De complexe algoritmes en neurale netwerken die dergelijke innovaties aandrijven, maken echter gretig gebruik van gpu-kracht. Dat wil zeggen dat de cpu-accelerator-tandem, die vroeger vooral synoniem stond met supercomputers, vandaag relatief talrijk is in menig serverkast binnen datacenters, publiek en on-premise.Nieuwe topspelers
Nvidia transformeerde onder impuls van die evolutie van bouwer van componenten voor gamingpc’s en workstations naar een heuse technologiegigant die mee aan het voorfront staat van de ontwikkeling van kunstmatige intelligentie, zelfrijdende wagens, deep learning en zowat alle andere hippe ontwikkelingen van de laatste vijf jaar. Associeer het bedrijf van Jensen Huang vooral niet meer met gaming, die tak (hoewel nog steeds belangrijk) verdwijnt steeds meer in de schaduw van de B2B- en R&D-divisies.
Nvidia ontpopte zich tot dé naam voor accelerator-hardware in exascale en high performance-computing. Kaarten als deze Tesla K40 drijven high tech rekenwerk aan.