Salesforce heeft zijn Trailhead-opleidingsplatform uitgebreid met modules ter bevordering van het verantwoord gebruik van artificiële intelligentie (AI)-modellen.
“Responsible Creation of Artificial Intelligence is bedoeld om ontwikkelaars, ontwerpers, onderzoekers, schrijvers en productmanagers in staat te stellen AI op een verantwoorde en vertrouwde manier te gebruiken. Daarbij is het ook bedoeld om te bouwen en inzicht te krijgen in de impact, die dit kan hebben op eindgebruikers, het bedrijfsleven en de samenleving”, aldus Kathy Baxter, architect van ethical AI practice bij Salesforce, over de nieuw geïntroduceerde module.
Trailhead
Trailhead is een gratis, geïndividualiseerde platform van Salesforce. Het in 2014 gelanceerde platform dient voor het bijscholing van huidige werknemers om lacunes in vaardigheden te dichten. Afgelopen maart werd het myTrailhead-platform van Salesforce uitgebracht. Iets dat naar eigen zeggen gezien kan worden als een merkervaring voor interne bedrijfstrainingsprojecten, aldus Tech Republic.
De noodzaak voor het op AI gerichte Salesforce leermodule werd al duidelijk tijdens de CIO Jury van afgelopen april. Hierin werd vastgesteld dat 92 procent van de technologieleiders geen beleid heeft voor het ethisch gebruik van AI. Wel zou er behoefte zijn aan AI-ethiekbeleid.
‘Bestudeer machine behavior’
Onderzoekers van MIT hebben afgelopen maand voorgesteld om machine behavior te bestuderen om zo te achterhalen in welke mate AI evolueert. Het bestuderen van machine behavior zou volgens de onderzoekers ook meteen de effecten van AI-gebruik op de samenleving verduidelijken. Ook zou het kunnen helpen bij het bestrijden van de negatieve effecten die AI met zich zou meebrengen.
Volgens hen waarschuwen zowel experts als academici voor de brede, onbedoelde gevolgen van AI-agenten, die gedrag kunnen vertonen en bevooroordeelde maatschappelijke effecten kunnen produceren. Het gaat dan om positieve- en negatieve effecten, waar ontwikkelaars van AI-oplossingen in eerste instantie niet van uitgaan.
Vooroordeel
Ook over de kwaliteit van machine learning-algoritme valt iets te zeggen. Zo bestaat er het vooroordeel, dat de kwaliteit van de algoritmes slechts een weerspiegeling van de data is, die wordt gebruikt om de machine te trainen. Een uitslag kan dus een vertekend beeld geven.
“Misschien zou je een machine kunnen trainen, door gebruik te maken van verschillende methoden. Maar wel door dezelfde data te gebruiken. Vervolgens kijk je naar welke soorten patronen er worden opgevangen. Dit zou inzicht kunnen geven in de vertekening die in de data voorkomen”, aldus Rebecca Parsons, CTO van ThoughtWorks.
Lees ook: Salesforce maakt Einstein Analytics voor financiële diensten algemeen beschikbaar