Intel laat weten dat zijn Falcon Shores-GPU’s ondanks een eerder aangekondigde vertraging toch klaar zullen zijn om de volgende generatie van LLM’s te ondersteunen.
Intel wil een grotere rol spelen in de training van AI-modellen. De Intel Xeon Scalable-CPU’s zijn een belangrijk onderdeel van de servers waarop Large Language Models (LLM’s) gebouwd worden, maar eigenlijk vervullen ze vooral een ondersteunende rol. Het zware werk is voor de GPU-accelerators en daar is Nvidia heer en meester.
Tegen de volgende generatie van LLM’s wil Intel daarom een nieuw wapen in de strijd werpen: Falcon Shores. De Falcon Shores-GPU’s moeten in 2025 richting klanten vertrekken, bevestigt de fabrikant. Die timing is niet zo spectaculair, aangezien Intel zich eerder al genoodzaakt zag om Falcon Shores uit te stellen.
Het wachten waard?
Waarop we precies wachten, is eveneens niet zo duidelijk. Intel deelt op de ISC-conferentie in Hamburg wel enkele details. Zo plant de fabrikant om de chips uit te rusten met een stevige 288 GB aan HBM3-geheugen. Ter vergelijking: de krachtigste accelerator van het moment is de Nvidia H100 Hopper met ‘slechts’ 80 GB RAM. Verder laat Intel weten dat de chip 8 bit floating point-workloads zal ondersteunen, wat relevant is voor een efficiënte training van nieuwe modellen.
Wanneer Falcon Shores lanceert, zal het landschap van HPC-accelerators er echter heel anders uitzien. Nvidia zit niet stil en wil de markt verder overtuigen met de Grace Hopper-superchip, die ARM-CPU’s met GPU-kracht combineert. AMD heeft een gelijkaardig concept klaar zitten met de Instinct MI300. Een Falcon Shores-chip met CPU-component stond op de planning, maar is daar intussen afgevallen.