Data-pipelines voor deep learning: van AI-concept naar praktijk

kunstmatige intelligentie

NetApp biedt in een whitepaper een roadmap voor het opzetten van data-pipelines voor deep learning. In ‘Building a Data Pipeline for Deep Learning’ wordt voor data engineers, infrastructure engineers, big data-architecten en business consultants duidelijk hoe een data-pipeline zo efficiënt mogelijk opgezet kan worden.

Data pipelines vormen de collectie van soft- en hardware die nodig zijn voor het verzamelen, voorbereiden en beheren van data die nodig is voor het trainen van AI-algoritmes. De effectiviteit van pipelines zijn volgens NetApp een bepalende factor voor het succes van een algoritme. Dit betekent dat een goede voorbereiding van een data-pipeline voorkomt dat er later in het trainingsproces componenten opnieuw gebouwd moeten worden.

De whitepaper beantwoordt drie vragen. Wat zijn de meest voorkomende software-opties voor data-pipelines in iedere fase? Wanneer moeten bepaalde software-opties worden geïmplementeerd in de pipeline? Hoe werkt de software samen met de hardware?

AI-uitdagingen in het algemeen

Deze vragen worden in de whitepaper beantwoord, en NetApp stelt dat de informatie behalve voor data-pipelines ook toepasselijk is op andere machine learning cases en big data analytics in het algemeen. Verder worden er een aantal ‘challenges’ benoemd voor het succesvol uitrollen van AI-projecten.

Kortom, het hele proces voor het opzetten van data-pipelines wordt uiteengezet, met toegevoegde informatie die geldt voor AI-projecten in het algemeen. Hieronder is de gehele whitepaper te downloaden.

[leadform title=”Data-pipelines voor deep learning: van AI-concept naar praktijk” url=”https://www.techzine.nl/wp-content/uploads/2019/09/WP-7299-Building-a-Data-Pipeline-for-Deep-Learning.pdf” tags=”Whitepaper-NetApp-data-pipelines-august-19″ company=”NetApp”]

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home