Op Kubecon Europe 2026 verschuift de vraag van “wat kan AI?” naar “hoe houden we dit onder controle?”
De cloudgemeenschap heeft min of meer bereikt waar ze jarenlang naartoe werkte: infrastructuur is gestandaardiseerd, Kubernetes is de norm en ontwikkelaars kunnen erop bouwen zonder zich nog zorgen te maken. Zelfs bij de oplossingen van hyperscalers is de infrastructuurlaag herkenbaar.
Dat ook de community groeit, weten we ondertussen wel. Maar niet alles loopt perfect. Tijdens de openingskeynote wordt dat duidelijk met één cijfer: Kubernetes zit aan 82 procent adoptie, terwijl AI in dagelijkse productie amper zeven procent haalt. De basis is er, maar wat erop moet draaien, zit nog niet op hetzelfde niveau.
Bedrijven zijn volop aan het experimenteren met AI, maar productie blijft achter. Of zoals Jim Zemlin, CEO van Linux Foundation, het samenvat: iedereen zit in de proof-of-concept fase, maar weinig bedrijven hebben het al echt operationeel gekregen.
AI zit overal (maar werkt daarom nog niet overal)
Copilots, chatbots, agenten en interne tools zitten overal ingebouwd. Er zijn alleen nog te veel proof-of-concepts die niet in productie raken. Dat horen we niet alleen op Kubecon, maar bij iedere cloud-, hosting- en infrastructuurspecialist.
Veel projecten werken maar halen de eindstreep niet omdat ze ofwel te duur, ofwel te complex zijn om te beheren. Het is op dit moment dus niet het bouwen van AI dat moeilijk gaat, maar het draaiende houden van de slimme creaties.
Die nuance komt ook terug in gesprekken achter de schermen. Bedrijven bouwen vaak nieuwe AI-oplossingen los van hun bestaande infrastructuur, om ze later opnieuw te moeten integreren. Dat zorgt voor vertraging, maar vooral voor complexiteit. Chris Aniszczyk, CTO bij CNCF, benoemt dit probleem: teams die “snel iets met AI moeten doen” bouwen aparte stacks, om daarna te beseffen dat ze die opnieuw moeten beveiligen, schalen en beheren binnen hun bestaande platform.
Inferentie is het ‘nieuwe probleem’
Een term die daarbij continu opduikt is inferentie. Dus niet het trainen van modellen, maar het moment waarop ze effectief iets moeten doen. Daar zit vandaag de echte uitdaging. Inferentieworkloads zijn veeleisend op vlak van infrastructuur in vergelijking met klassieke toepassingen. Ze vragen andere vormen van load balancing, andere manieren van schalen en vooral een andere kijk op kosten. Dat maakt het een probleem dat niet met één tool op te lossen is.
Iedereen zit in de proof-of-concept fase, maar weinig bedrijven hebben het al echt operationeel gekregen.
Jim Zemlin, CEO Linux Foundation
Volgens CNCF verschuift de volledige AI-markt in die richting. Tegen het einde van dit jaar zal inferentie al het grootste deel van AI uitmaken, met een groeipad dat volgens hen “ongezien is in de technologiesector”. Logisch: geavanceerde modellen trainen kost miljarden en is in recordtempo het domein geworden van een handvol gespecialiseerde bedrijven.
Kubernetes krijgt nieuwe rol
In die context krijgt Kubernetes een andere betekenis. Het is niet langer gewoon de laag waarop applicaties draaien, maar wordt stilaan de plek waar AI-workloads gecontroleerd en gestuurd worden. Twee derde van de generatieve AI draait vandaag al op Kubernetes omdat het volgens The Linux Foundation de enige omgeving is die voldoende flexibiliteit biedt.
Daarom wordt Kubernetes meer en meer de basis voor AI, waar beslissingen genomen worden over resources, schaal en prestaties. Maar tegelijk wordt duidelijk dat Kubernetes zelf ook moet evolueren om die rol op zich te kunnen nemen.
Grote spelers trekken naar dezelfde laag
Die verschuiving zie je ook in wie er op het podium staat. Nvidia, AWS, Google Cloud en Red Hat brengen allemaal hun eigen verhaal. Nvidia focust op de volledige AI-stack, van hardware tot software. De cloudproviders bouwen Kubernetes dieper in hun AI-platformen in als controlelaag. Red Hat blijft de brug slaan naar enterprise omgevingen. Iedereen grijpt naar hetzelfde fundament en open source is daarin een noodzakelijke basis om samenwerking mogelijk te maken.
Draait AI of werkt het effectief?
Dat AI-workloads op Kubernetes draaien, betekent niet dat ze optimaal draaien. Veel bedrijven zitten nog in een fase die doet denken aan de vroege cloudadoptie. Workloads zijn nog niet écht geoptimaliseerd, kosten lopen snel op en tools zijn nog niet aangepast aan deze nieuwe workflows.
In Europa speelt daar nog een extra factor mee. Private cloud blijft daar volgens het State of Cloud-rapport de dominante keuze, met ongeveer 39 procent van de ontwikkelaars die daarop inzetten. Hybride cloud groeit wel, maar blijft iets achter op andere regio’s. Die voorzichtigheid heeft te maken met de regelgeving, die bepaalt hier nog altijd mee de snelheid van innovatie.
Aniszczyk spreekt ook over een nieuwe druk op infrastructuurteams. Niet alleen moeten ze AI integreren, ze moeten ook omgaan met complexiteit, tools en beveiligingsrisico’s.
Van infrastructuur naar intelligentie
Kubernetes doet eindelijk wat het beloofd. De infrastructuur werkt, is schaalbaar en breed in gebruik. Maar AI zit nog niet op dat niveau. De technologie is er, de interesse ook, maar het operationeel maken gebeurt nog niet. En precies daar ligt vandaag de grootste uitdaging voor bedrijven. Niet wat AI kan is het probleem, maar hoe je het betrouwbaar, betaalbaar en schaalbaar krijgt.
