Google introduceert een nieuwe versie van zijn zelf gemaakte TPU-chip voor AI-workloads. Die kan AI-workloads aan ongeziene snelheden verwerken.
Google onthult tijdens zijn Google I/0-event de Tensor Processing Unit v4, kortweg TPU v4. Dat is de vierde versie van de door Google ontwikkelde AI-chip. Het bedrijf begon in 2016 met het gebruik van eigen AI-chips. De TPU’s zijn ontwikkeld om vlot AI-modellen te trainen en doen dat efficiënter dan traditionele combinaties van CPU en GPU.
Rekenkracht
Google combineert TPU v4 -chips in clusters van 500 exemplaren, aan elkaar gelijmd met eigen interconnect-technologie. Eén zogenaamde TPU v4-pod kan één exaFLOPS aan rekenkracht naar het strijdtoneel brengen. Dat is bijna dubbel zoveel dan de krachtigste supercomputer van het moment.
Enige nuance is daarbij wel op zijn plaats: het cluster van Google rekent met minder precisie dan een traditionele HPC-installatie wat de rekenkracht een enorme boost geeft. De TPU’s zijn zo uitermate geschikt voor AI-training, maar niet voor andere HPC-workloads zoals nauwkeurige simulaties.
Beschikbaarheid
De nieuwe chips verschijnen binnenkort in de datacenters van Google. Daar zal de techreus ze zelf gebruiken maar ook klanten van Google Cloud zullen er later dit jaar mee aan de slag kunnen. De TPU v4-clusters bieden een interessante differentiator voor Google in de strijd tegen AWS en Microsoft Azure. AWS zet ook in op eigen chips maar op andere domeinen, met Nitro voor beveiliging en Graviton voor rekenkracht. Ook Microsoft zou aan een eigen chip werken.