Datacenters en neurale netwerken: waarom Intel plots zelf grafische kaarten ontwikkelt
Parallel troef
Nu de Wet van Moore steeds meer een afgesloten hoofdstuk in de chipgeschiedenis blijkt, groeit het belang van parallel rekenwerk sneller dan ooit. Vroeger was de processorkern en de bijhorende kloksnelheid de doorslaggevende factor in de prestaties van het gros van de toepassingen. Rekenwerk vandaag vertrouwt steeds meer op enorme hoeveelheden van gelijktijdige maar iets eenvoudigere berekeningen. Voor de ontluikende domeinen van big data analytics, kunstmatige intelligentie en machine learning is die parallelle rekenkracht van het grootste belang. Die domeinen zijn al lang geen niche meer. Zowat ieder bedrijf kan dezer dagen de vruchten plukken van de evoluties met dank aan de publieke cloud voor eenvoudig toegankelijke rekeninfrastructuur, en kant-en-klare Software-as-a-Service-oplossingen om er zelf mee aan de slag te gaan. De complexe algoritmes en neurale netwerken die dergelijke innovaties aandrijven, maken echter gretig gebruik van gpu-kracht. Dat wil zeggen dat de cpu-accelerator-tandem, die vroeger vooral synoniem stond met supercomputers, vandaag relatief talrijk is in menig serverkast binnen datacenters, publiek en on-premise.Nieuwe topspelers
Nvidia transformeerde onder impuls van die evolutie van bouwer van componenten voor gamingpc’s en workstations naar een heuse technologiegigant die mee aan het voorfront staat van de ontwikkeling van kunstmatige intelligentie, zelfrijdende wagens, deep learning en zowat alle andere hippe ontwikkelingen van de laatste vijf jaar. Associeer het bedrijf van Jensen Huang vooral niet meer met gaming, die tak (hoewel nog steeds belangrijk) verdwijnt steeds meer in de schaduw van de B2B- en R&D-divisies. AMD van zijn kant is een comeback gestart in cpu-land, en heeft ook zijn gpu-line-up een steroïde-injectie gegeven. Wie een serieus high performance computing-systeem wil bouwen combineert doorgaans Intel x86-hardware met Xeon Phi’s of Nvidia Tesla accelerators, maar AMD benadert de datacenters met een heel interessant aanbod waarin het zowel de cpu en de gpu kan aanleveren.Langs alle kanten belaagd
Het staat met andere woorden buiten kijf dat grafische kaarten de komende jaren alleen maar aan belang gaan winnen, en Intel heeft daar momenteel niets op te zeggen. Terzelfdertijd lijkt het alsof de chipboer uit Santa Clara zich ook in de cpu-wei heeft vastgereden. Uiteraard is Intel nog comfortabel marktleider, maar langs x86-kant komt AMD loeren met scherp geprijsde chips. Daarbuiten staat zelfs heel x86 als go to-architectuur vandaag in vraag. ARM toonde al dat het bijzonder energie-efficiënt is, waardoor ARM-servers in theorie voor bepaalde specifieke workloads de meer economische keuze zijn. Dat is Qualcomm (gekend van de op ARM gebaseerde Snapdragon-chip in je smartphone) niet ontgaan: zij zetten volledig in op de ARM-architectuur in de server met zijn 10 nm Centriq-aanbod. Zelfs IBM laat zich niet kennen. De recent gelanceerde Power9-architectuur werd in nauwe samenspraak met Nvidia ontwikkeld precies om de populairste toepassingen van morgen zo efficiënt mogelijk de baas te kunnen. Intel staat momenteel te zwaaien met de x86-beker, terwijl de rest van de spelers onder elkaar de regels van het spel aan het veranderen zijn. Als Intel dé relevantste naam in silicium wil blijven, moet het zich met andere woorden cementeren als onontbeerlijke partner in HPC-computing in de toekomst. Een aantrekkelijke line-up van grafische kaarten is daarbij een stevige troef.nieuwsbrief
Abonneer je gratis op ITdaily !