Van de cloud naar huis: waarom een eigen datacenter soms beter is

Enkele jaren geleden leek het nog alsof je best alles in de publieke cloud duwde, liefst zo snel mogelijk. Vandaag halen bedrijven workloads terug naar eigen datacenters. Niet alleen omwille van veiligheid, maar ook om kosten uit te sparen. Wat is er gebeurd?

Als je het aan AWS, Microsoft of Google zou vragen, dan is er weinig reden om niet je hele digitale inboedel naar de cloud te verhuizen. Kostenbesparing is een belangrijk argument voor een toekomst in de cloud, net als flexibiliteit en uiteindelijk ook veiligheid.

Je kan ervan op aan dat AWS zijn datacenters beter beschermd met geavanceerdere tools en meer ervaren personeel dan wat je zelf kan inzetten om de servers in je kelder te bewaken. In de praktijk biedt iedere grote provider vandaag één of andere vorm van hybride compatibiliteit aan. On-premises is niet dood en lijkt ook niet te sterven.

Goedkoper zelf

Sterker nog: het argument van kostenbesparing blijkt in de praktijk niet altijd te kloppen. Wie een centje wil besparen, draait bepaalde workloads achteraf gezien toch beter zelf. Dell EMC publiceerde pas nog een casestudy over New Belgium Brewing, een Amerikaanse brouwerij. Die haalde kritieke workloads zoals ERP, CRM en BI-toepassingen terug naar huis, net als SQL- en SharePoint-databases. Het bedrijf schat zelf dat de zet de operationele kost met 66 procent deed dalen. Omdat applicaties in sommige gevallen de productielijn aansturen, ging downtime omlaag en steeg de capaciteit. Kanttekening hierbij is natuurlijk dat de opex niets zegt over de capex voor de aanschaf van Dells PowerEdge-servers.

Het bedrijf schat zelf dat de verhuis naar on-premises de operationele kost met 66 procent deed dalen.

Onderzoek van IDC wees pas nog uit dat 80 procent van de ondervraagde bedrijven actief in de cloud kijkt hoe het zijn workloads kan repatriëren. Ongeveer de helft van organisaties groot en klein verwacht binnen de twee jaar toepassingen die nu in de publieke cloud draaien opnieuw on-premises te hosten.

Prestaties zijn een factor voor 14 procent van de ondervraagden, veiligheid voor 19 procent. Denk dan eerder over veiligheidsrisico’s bij het versluizen van data van kantoor naar de cloud enerzijds en compliancy-wetgevingen anderzijds. 12 procent haalt applicaties opnieuw naar het eigen datacenter onder een financiële impuls.

Elasticiteit en overprovisionering

Publieke cloudproviders claimen nochtans dat geld net een reden is om voor de cloud te kiezen. In de praktijk is het verhaal genuanceerder. Draai je elastische workloads die vandaag amper rekenkracht gebruiken en morgen een piek ondervinden waarvoor plots een verdubbeling van de serverkracht nodig is, dan blijft de cloud de beste oplossing. Serverless computing lijkt in dat opzicht de toekomst. On-premises word je immers gedwongen tot overprovisionering op maat van de zwaarst mogelijke belasting, wat de capex steil de hoogte in jaagt. De flexibiliteit van de publieke cloud is hier een must.

serverless computing
Als workloads elastisch zijn, dan blijft de publieke cloud veruit de beste optie. Serverless is daarbij de interessantste optie, al loert vendor lock-in om de hoek.

Heb je echter volwassen applicaties waarvan je heel goed weet op welke hardware ze moeten draaien, en weet je dat de belasting redelijks stabiel is, dan valt het voordeel van de publieke cloud plots weg. Je hebt geen schaalbaarheid nodig en de voorspelbaarheid op de middellange termijn maakt het mogelijk om hardware te kopen en af te schrijven op drie tot vijf jaar. Als je weet dat de hardware zal volstaan, mits eventueel een kleine uitbreiding van rekenkracht of opslag waar nodig, waarom zou je dan een server van iemand anders huren?

Onvoorziene kosten

Langs de andere kant is de schaalbaarheid van de cloud ook een vloek, zeker bij grotere organisaties. VM’s worden opgezet, databases geladen, maar al te vaak houdt niemand het overzicht bij van wat er draait, en vooral waarom. Zo stijgt de maandelijkse rekening, mogelijks onder impuls van een workload die niemand meer gebruikt of een batch virtuele machines die een ontwikkelaar is vergeten uit te schakelen. Zichtbaarheid is daarbij essentieel.

Op de .Next-converentie van Nutanix haalden we het onderwerp kort aan. Als hyperconverged-specialist en voorvechter van hybrid cloud vindt Nutanix vanzelfsprekend dat een mix van publiek en privaat de beste optie is. Dat de hyperconverged-aanpak best wat elasticiteit en schaalbaarheid toelaat in het eigen datacenter, benadrukt Nutanix natuurlijk ook.

Het interessantste antwoord van het bedrijf op het publiek/privaat-vraagstuk is echter Beam. Die softwaretool brengt workloads in kaart, zodat je niet alleen weet wat waar draait, maar ook wat het precies kost. Een dergelijke zichtbaarheid is een eerste belangrijke stap voor wie een cloudstrategie wil opstellen. Hoe kan je beslissen welke workload je waar wil steken, als de uiteindelijke kostprognose niets meer is dan giswerk?

Vendor lock-in

Er blijft echter een groot probleem waarop ook Nutanix vandaag geen goed antwoord heeft. De stormloop naar de cloud van de afgelopen jaren zorgde ervoor dat er momenteel al heel wat workloads in de cloud zitten die daar misschien niet thuishoren. Die repatriëren is gemakkelijker gezegd dan gedaan.

De grote cloudproviders bieden vandaag heel wat aantrekkelijke en unieke oplossingen voor toepassingen aan. Vergeet echter niet dat je applicaties aan een provider bindt wanneer je voor die diensten kiest.

“Repatriëring van apps is één van de moeilijkste vraagstukken waar we vandaag mee worstelen”, geeft Rajiv Mirani, CTO van Nutanix, toe. Vendor lock-in blijft een probleem. “Haal maar eens een workload terug die gebouwd is op een AWS Aurora-database”, zucht Mirani. Dergelijke producten van cloudbozo’s zijn of lijken vaak de perfecte tools voor een specifieke job, maar ze zorgen er ook voor dat je vastgebonden blijft aan een cloudprovider. Eenvoudige compatibiliteit met een on-premises omgeving is er niet, zodat je de provider moet blijven betalen voor opslag en rekenkracht.

Een gezonde (en best doordachte) mix

De publieke cloud zal een erg belangrijke pijler van de moderne IT-infrastructuur blijven. Zowat iedereen is het er intussen echter over eens dat de infrastructuur van morgen een complexe en hybride situatie wordt. On-premises speelt zijn rol, net als de cloud, en dan mag de netwerkrand niet vergeten worden. Het wordt steeds interessanter om workloads zo dicht mogelijk bij de databron te draaien, wat impliceert dat er minidatacenters verschijnen op tal van satellietlocaties. Denk maar aan grootwarenhuizen zoals Colruyt of Delhaize waar alle locaties hun eigen edge-servers hebben.

Eén ding is vandaag nog zeker: terug lokaal halen is vandaag aanzienlijk moeilijker dan naar de cloud migreren. Denk dus goed na voor je een bepaalde workload de publieke cloud instuurt en wees al zeker op je hoede voor vendor lock-in.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home