Meta wil 65 miljard dollar investeren in AI-infrastructuur ondanks vraagtekens bij trainingsproces

meta

Meta wil in 2025 tot 65 miljard dollar investeren om zo het totale aantal GPU’s beschikbaar binnen het bedrijf op te schalen tot 1,3 miljoen. De aankondiging staat in schril contrast met recente AI-ontwikkelingen vanuit China.

Meta-CEO Mark Zuckerberg zegt op zijn X-concurrent Threads dat zijn bedrijf in 2025 60 miljard tot 65 miljard dollar wil investeren in AI. Dat budget is hoofdzakelijk bedoeld voor de aanschaf van nieuwe accelerators. Tegen het einde van het jaar wil Meta meer dan 1,3 miljoen GPU’s ter beschikking hebben. Het is onduidelijk hoeveel het bedrijf er nu al heeft.

Meta zal die infrastructuur gebruiken om zijn Llama 4-model uit te bouwen. Zuckerberg voorspelt dat Llama 4 zich zal ontpoppen tot het beste model, al is het onduidelijk hoe hij dat meet en waarom hij ervan uitgaat dat Llama 4 krachtiger zal zijn dan modellen van concurrenten zoals OpenAI.

Nuttige investering

De aankondiging komt er ongeveer gelijktijdig met interessant AI-nieuws vanuit China. Daar stellen onderzoekers het Deepseek R1-model ter beschikking van gebruikers. Deepseek R1 moet competitief zijn aan bestaande LLM’s, maar werd op een andere manier getraind. Zou zouden de Chinezen amper zes miljoen dollar hebben uitgegeven aan de training van het model, oftwel zo’n vijf procent van de investering die de grote Amerikaanse bedrijven zoals Meta en OpenAI hebben nodig gehad voor hun LLM’s.

Het is op dit moment onduidelijk hoe competitief Deepseek R1 echt is. Als het model inderdaad naar behoren presteert, dan plaatst dat vraagtekens bij de noodzaak om miljardeninvesteringen te doen in energieslokkende AI-infrastructuur.