Itdaily - Meta stoeft met eigen chips: RAM-slokops voor AI en gerichte reclame

Meta stoeft met eigen chips: RAM-slokops voor AI en gerichte reclame

Meta stoeft met eigen chips: RAM-slokops voor AI en gerichte reclame

Meta onthult vier eigen AI-accelerators, intern ontwikkeld voor eigen gebruik. De chips vereisen tot 512 GB aan HBM per stuk.

Meta pakt uit met vier zelf ontwikkelde AI-accelerators. Die MTIA-chips bouwen voort op de MTIA 100 en MTIA 200 die Meta eerder onthulde. Die chips waren vooral geschikt om ranking- en aanradingsmodellen te draaien. Dat zijn de algoritmes die onder andere de Instagram-feed van gebruikers optimaal gepersonaliseerd (lees: verslavend en voor Meta winstgevend) maken.

Meer dan R&R

Meta bouwt daar nu op verder met vier nieuwe chips. De MTIA 300 is de directe opvolger van de eerdere processors. Ook deze accelerator is geoptimaliseerd om die rank & recomendation (R&R)-modellen te draaien en te trainen.

De MTIA 400 is een meer krachtige variant, ontwikkeld voor een breder toepassingsgebied. Deze chip kan niet alleen om met de R&R-modellen, maar ook met meer algemene generatieve AI-workloads. Meta rolt de MTIA na tests op dit moment uit in zijn eigen datacenters.

Nog een stapje hoger op de ladder zit de MTIA 450. Die is specifiek geoptimaliseerd voor gen AI, en dus niet meer R&R. Meta wil hier vooral interne inferentie mee ondersteunen. Deze chip zal in 2027 in de datacenters terechtkomen.

In datzelfde jaar hoopt Meta de MTIA 500 uit te rollen. Dat is de meest krachtige zelf ontwikkelde AI-chip waar het bedrijf op dit moment over communiceert. De processor met zo’n 50 procent sneller zijn dan de MTIA450.

Geheugenvreters

De onthulling toont hoe Meta zijn AI-ontwikkeling wil ondersteunen met eigen hardware, in combinatie met chips van Nvidia en anderen. De MTIA-chips maken eveneens duidelijk waar al het RAM-geheugen heen gaat.

De MTIA 400 die vandaag al wordt uitgerold en vooral dient om de feeds van Meta-gebruikers te personaliseren, bevat 216 GB aan HBM per chip. Topmodel MTIA 500 heeft tot 512 GB HBM aan boord.

Met de onthulling van de chips wil Meta zijn expertise rond AI-hardware in de verf zetten. De details over de accelerators, en dan vooral het HBM-geheugen, maken echter vooral duidelijk waarom je volgende laptop zoveel duurder is. Meta spreekt van het schalen van AI-ervaringen voor miljarden mensen, maar dat is een eufemisme. In de praktijk gaat het met de MTIA-chips voor een heel groot stuk om AI en R&R die mensen aan hun feeds gekluisterd moet houden, en de juiste advertenties moet serveren.

De maatschappelijke waarde van deze HBM-slokkende chips staat zo minstens ter discussie, terwijl de impact op de prijzen van laptops en smartphones voor eindgebruikers wel heel reëel is.