Met Nervana probeert Intel een belangrijke plaats voor zichzelf te verwerven in het AI-ecosysteem. De chips zijn het directe resultaat van de overname van deep learning-specialist Nervana Systems in 2016. Intel telde toen meer dan 400 miljoen dollar neer voor het Amerikaanse bedrijf en ging prompt aan de slag met de ontwikkeling van gelijknamige microchips. In 2017 kondigde Intel al aan dat het werkte aan de Nervana Neural Network Processor (NNP-I).
Chip met een doel
Nervana is een Application Specific Integrated Circuit (ASIC). In andere woorden: het is een chip gebouwd met een specifieke taak in het achterhoofd. Concreet gaat het om het trainen en uitvoeren van AI-algoritmes. Om dat efficiënt te bolwerken, bestaat Nervana uit verschillende Ice Lake-cores, gekoppeld aan specifieke neural network-circuits. De chip wordt gebakken op Intels 10 nm-procedé, dat eindelijk op volle toeren lijkt te draaien.
Ok, guys…some news for you. NNP-i is 10nm Intel process. It will also include IceLake cores to handle general operations as well as the NN acceleration. It'll be a great product 🙂 You're welcome.
— Naveen Rao (@NaveenGRao) January 8, 2019
Op Nervana vind je geen traditionele cache, maar gedeeld door software beheerd geheugen. Op de chip zelf zit heel wat high bandwith memory (HBM) en SRAM. Door het geheugen zo dicht bij de rekenkracht te plaatsen, krijgt Nervana een flinke prestatieboost. Intel rust het product verder uit met razendsnelle interconnects, zowel op de die zelf, als daarbuiten. Dat laat bliksemsnel parallel rekenwerk toe met één of meerdere Nervana-chips, die desgewenst aan elkaar geschakeld kunnen worden om één grote virtuele chip te vormen.
Flexpoint
Intel introduceert verder Flexpoint op de chip. Dat is een eigen formaat om met integer-precisie om te gaan (naast bijvoorbeeld enkele- en dubbele-precisie). Flexpoint is minder accuraat, maar dat zou in het geval van AI-workloads zelfs een voordeel zijn. Het laat in ieder geval meer efficiëntie toe, en de digitale ‘ruis’ die ontstaat door het gebruik ervan kan algoritmes volgens Intel helpen om sneller en eenvoudiger tot de juiste resultaten te komen.
Nervana is niet alleen geoptimaliseerd voor de training van AI-algoritmes, maar ook de uitvoering. Vooral in beeldherkenning zou de ASIC heel straf zijn. Denk voor andere relevante taken aan malware-detectie of contentherkenning op grote schaal. Zeker bij dat laatste zal het je niet verwonderen dat Facebook een ontwikkelingspartner is voor dit specifieke product. Als het vorige jaar iets bewees, dan is het wel dat Zuckerberg en de zijnen zoveel mogelijk AI-hulp kunnen gebruiken om het sociale netwerk vrij te maken van storende, misleidende en gevaarlijke content.
Aanval op Nvidia
Met Nervana richt Intel zijn pijlen schaamteloos op Nvidia, dat zich met zijn grafische kaarten ontpopte tot de hardwareboer naar keuze voor AI-training. Het grote verschil met Nervana is echter dat Nvidia’s producten vooral geoptimaliseerd zijn voor die training, en minder voor de uitvoering van specifieke taken. Intel maakt zich sterk dat Nervana in bepaalde gevallen wel tien keer beter presteert dan vergelijkbare gpu’s. De chipboer hoopt zo met Nervana een stuk van de AI-koek naar zich heen te trekken.
Gerelateerd: Intel toont eerste stapelbare 10 nm Lakefield-chips