IBM heeft een aantal tools gelanceerd die bedrijven moeten helpen voorkomen dat de kunstmatige intelligentie waar ze gebruik van maken vooringenomen is. Een deel van de code wordt open-source gemaakt, waarmee meer ontwikkelaars er gebruik van maken. Volgens IBM kan de technologie helpen de grote uitrol van AI te bevorderen.
IBM laat tegenover ZDNet weten dat het cloudsoftware uitbrengt die ontworpen is om de uitrol van kunstmatige intelligentie te beheren. De software helpt daarnaast met het opspeuren van vooringenomenheid in modellen. Dat zal ontwikkelaars en systeembeheerders helpen om de impact van die vooringenomenheid terug te dringen.
Keuzes begrijpen
De technologie komt in een tijd waarin bedrijven er steeds vaker voor kiezen om kunstmatige intelligentie uit te rollen. Beslissingen worden gemaakt door machine learning en diverse modellen. Maar het is vaak ingewikkeld om de redenen achter bepaalde keuzes te begrijpen. De cloudsoftware van IBM werkt met diverse frameworks, waaronder AWS SageMaker, AzureML, SparkML, Tensorflow en Watson.
IBM zal in elk geval de tool die kan detecteren of AI wel ‘eerlijke’ beslissingen neemt open-source maken en heeft deze op GitHub geplaatst. De AI Fairness 360-toolkit, zoals deze heet, biedt algoritmes, code en handleidingen. De hoop van IBM is dat academici, onderzoekers en datawetenschappers dit zullen toepassen in hun modellen.
Gebrek aan vertrouwen
Volgens Ritika Gunnar, vicepresident van IBM Watson Data and AI, is het gebrek aan vertrouwen in, en transparantie van AI-modellen de reden waarom bedrijven AI-modellen nog niet breed hebben uitgerold. Dat komt omdat er zorgen zijn over de beslissingen die AI maakt en de mogelijkheid dat deze keuzes een negatieve impact op de bedrijven hebben.
Aangezien IBM van plan is om Watson AI zo breed mogelijk uit te rollen en als het even kan een flink deel van de opkomende AI-markt in handen te krijgen, is de lancering van dit product alleen maar logisch. Recent onderzoek wees namelijk uit dat 82 procent van de bedrijven overweegt AI-toepassingen uit te rollen, maar dat 60 procent vreest voor betrouwbaarheidsproblemen.
De vooringenomenheid van AI-modellen gaat overigens verder dan factoren als geslacht of ras. AI die bijvoorbeeld ingezet wordt voor het stroomlijnen van verzekeringsclaims weegt factoren als de duur van een polis, waarde van een voertuig, leeftijd en zelfs postcode mee. Op basis daarvan worden oordelen geveld, ondanks dat de AI verder zou moeten kijken dan dat.