Vreemd gedrag tijdens coronapandemie brengt AI-modellen in de war

samenwerken met AI

Sinds het coronavirus zich wereldwijd begon te verspreiden, veranderde ons gedrag plots enorm. Van de een op de andere dag werden producten als toiletpapier, handzeep en gezichtsmaskers immens populair. Wat normaal was, is compleet veranderd. En dat brengt de nodige problemen met zich mee voor machine learning modellen, die getraind zijn op ‘normaal menselijk gedrag’. 

We zien ons veranderde gedrag goed terug in de populairste producten en meestgebruikte zoektermen op Amazon. Binnen minder dan een week tijd werd de hele top 10 op Amazon overgenomen door corona-gerelateerde artikelen. Deze zelfde effecten zien we terug in de hele retail-sector.

Ons plots veranderende gedrag zorgt voor haperingen in artificiële intelligentie algoritmes voor onder andere voorraadbeheer, fraudedetectie en marketing. Deze machine learning-modellen zijn getraind op basis van normaal gedrag. Nu er een nieuwe normaal is, lopen deze algoritmes tegen fouten aan.

Menselijke tussenkomt in AI-systemen

De pandemie laat zien hoe ver artificiële intelligentie al een onderdeel is geworden van ons leven. Ons gedrag verandert hoe AI werkt en veranderingen in de werking van AI zorgen op hun beurt weer voor veranderingen in ons gedrag. De plotselinge fouten met artificiële intelligentie algoritmes laat zien dat menselijke betrokkenheid binnen geautomatiseerde systemen van groot belang is. 

Machine learning-modellen zijn ontwikkeld om te reageren op veranderingen. Maar als de data te veel afwijkt van de data waarmee de modellen zijn getraind, zorgt dat voor slechte prestaties. Je kunt niet zomaar een AI-systeem opzetten en er daarna niet meer naar omkijken.

Algoritmes in crisis-situaties

Veel AI-systemen zijn getraind op basis van vrij milde worst-case scenarios. Wanneer er een crisis zoals de huidige situatie waarin we zitten uitbreekt, weten de algoritmes niet wat ze ermee aan moeten. Om algoritmes echt goed te trainen, zouden ze ook getraind moeten worden voor crisis-situaties. Zo beweert Rajeev Sharma, global vice president bij Pactera Edge. 

Zelfs het trainen van algoritmes voor crisis-situaties is niet voldoende. Zo beweert David Excell, oprichter van Featurespace. Als een machine learning-systeem niet ziet wat het verwacht te zien, levert dat al problemen op volgens Excell. 

Volgens Rael Cline, CEO van Nozzle, is het voor nu vooral belangrijk om AI-systemen goed in de gaten te houden en bij te sturen wanneer dat nodig is. Volgens Cline is de huidige situatie een eye-opener voor veel mensen die ervan uitgingen dat geautomatiseerde systemen volledig op zichzelf kunnen draaien. “Je hebt een data science team nodig dat de situatie in de wereld kan verbinden met wat er gebeurt met de algoritmes”, aldus Rael Cline.

nieuwsbrief

Abonneer je gratis op ITdaily !
  • This field is for validation purposes and should be left unchanged.
terug naar home