Microsoft illustreert verantwoorde omgang met AI in eerste rapport

microsoft mwc

Microsoft lanceert een transparantierapport rond zijn aanpak voor verantwoordelijk onderzoek naar AI. Daarin duidt het bedrijf welke concrete maatregelen het al genomen heeft en wat de uitdagingen voor de toekomst brengen. Enkel zelfreflectie over enkele gemaakte fouten ontbreekt.

Microsoft wil de kar trekken voor de open, transparante en verantwoordelijke ontwikkeling van AI. Het allereerste Responsible AI Transparency Report moet aantonen wat Microsoft zoals doet en hoe. Zo hoopt het bedrijf te laten zien hoe verantwoord het tewerk gaat, alsook de industrie te inspireren om gelijkaardige principes te volgen.

Verantwoordelijke standaard

De kern van Microsofts AI-beleid is de Responsible AI Standard. Dat is een reeks van praktijken en principes die de ontwikkeling, uitrol en het beheer van AI sturen op een ethisch en sociaal verantwoorde manier. Microsoft kijkt naar ethische principes waaronder eerlijkheid, betrouwbaarheid, veiligheid en privacy, en onderzoekt het eventuele risico tijdens de ontwikkeling en na de uitrol van AI-modellen.

In het rapport lezen we dat Microsoft een framework voor beheer heeft uitgewerkt, net als een brede aanpak om risico’s gerelateerd met AI in kaart te brengen. Een Sensitive Users Program moet actief onderzoeken of AI-toepassingen geen negatieve impact hebben op bepaalde mensen of groepen in de maatschappij.

We zien verder investeringen in AI-training en samenwerking met de bredere AI-gemeenschap. Documentatie en transparantie zijn een hoeksteen van de aanpak en daarvan is het rapport een voorbeeld.

Uitdagingen

Microsoft beseft dat verantwoordelijke ontwikkeling van AI een voortdurend proces is, en stipt in het rapport ook enkele uitdagingen aan. De complexiteit van risico’s is daar één van, de schaalbaarheid van ethische lijnen een andere. Bovendien merkt Microsoft op dat er op dit moment geen wereldwijde consensus is over wat AI wel of niet mag doen. Als wereldwijd actieve onderneming ondervindt Microsoft zo moeite om een universele aanpak uit te werken. In lijn daarmee merkt het bedrijf op dat het moeilijk blijft om innovatie en regelgeving met elkaar te rijmen.

Het rapport biedt een uitgebreide inkijk in de manier waarop Microsoft werkt, maar mist wat impact door een gebrek aan zelfreflectie. Zo heeft de Bing Chatbot in het verleden vol vertrouwen al foute informatie verspreid of konden mensen de tools van Microsoft misbruiken om deepfakes of zelfs deepnudes te maken. Microsoft pakte die problemen natuurlijk aan maar ze illustreren dat ook met een uitgebreide ethische aanpak fouten mogelijk zijn, die mensen wel degelijk schaden. Het rapport biedt desalniettemin een erg uitgebreide analyse. De volledige versie vind je hier.

nieuwsbrief

Abonneer je gratis op ITdaily !

  • This field is for validation purposes and should be left unchanged.
terug naar home