Intel en Baidu ontwikkelen samen Nervana-chip voor AI-training

Intel werkt aan een Nervana-chip speciaal voor de training van AI-algoritmes. Het gaat voor de ontwikkeling daarvan in zee met Chinese cloudgigant Baidu.

Intel werkt aan een uitbreiding van zijn portfolio van Nervana-chips. Nervana-processors zijn chips speciaal ontwikkeld voor AI-algoritmes en hebben hun naam te danken aan de acquisitie van Nervana Systems door Intel in 2016. Aan het begin van dit jaar lanceerde Intel de Nervana Neural Network-processor voor inferentie (NNP-I), nu laat de chipgigant weten dat er een variant voor training in de maak is.

Voor de ontwikkeling van die NNP-T-chip gaat Intel in zee met de Chinese cloudspecialist Baidu. De chip zal geoptimaliseerd worden voor het PaddlePaddle-trainingsnetwerk van Baidu. Denk daarbij aan een nauwe samenwerking tussen de hardware en de software. De accelerator-chip zal verder naadloos integreren met de Xeon Scalable-servers waar het trainingsnetwerk vandaag al op draait.

Er is een verschil tussen de training van algoritmes om bepaalde zaken te kunnen (zoals beeldherkenning), en het gebruik van die kennis achteraf in toepassingen. Voor training moet een algoritme grote hoeveelheden trainignsdata verwerken en op zoek gaan naar bijvoorbeeld patronen en kenmerken die dienen als houvast om pakweg katten van honden te onderscheiden op een foto. Zodra een AI-algoritme het verschil kent, kan het ingebouwd worden in verschillende toepassingen die minder rekenkracht nodig hebben. Dergelijke workloads vallen niet meer onder training maar onder inferentie.

Hogere versnelling

AI-workloads kunnen steeds vaker gebruik maken van op maat gemaakte accelerator-chips. Die werken doorgaans in tandem met klassieke processors om specifiek AI-rekenwerk zo snel en zuinig mogelijk uit te voeren. Het veld is intussen zo belangrijk dat het economisch rendabel is om op grote schaal AI-chips op de markt te brengen.

Intel is niet de eerste noch de enige. Google heeft bijvoorbeeld z’n eigen AI-processors met de Tensor Processing Unit, Huawei stopt al enige tijd AI-hardware in zijn telefoons en MediaTek werkt aan AI-chips voor IoT-toepassingen. Ook Nvidia zet natuurlijk sterk in op AI-componenten, aangezien het hele acceleratorverhaal begon met het gebruik van klassiekere grafische kaarten met grote parallelle rekencapaciteiten om cpu’s bij te staan.

Gerelateerd: FPGA: boetseerbare wonderchip voor AI, IoT en machine learning

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home