Renze Munnik: AI als spiegel - Onze kinderen zijn geen algoritme

Renze Munnik: AI als spiegel - Onze kinderen zijn geen algoritme

Technology
Renze Munnik_980x600.jpg

Door Renze Munnik, Risk Management Consultant bij Probability & Partners

AI wordt steeds meer gebruikt. En de technieken gaan steeds verder. Er wordt ook steeds meer (blind) vertrouwd op de uitkomsten van deze algoritmen. En de laatste tijd is daar steeds meer discussie over. Die algoritmen blijken te discrimineren. Vrouwen worden niet uitgenodigd voor sollicitatiegesprekken, of krijgen een lagere kredietwaardigheidsscore ten opzichte van mannen die verder dezelfde karakteristieken hebben. Hoe kan dit? Wat betekent dit voor de risicomanager? En wat heeft dit te maken met onze kinderen?

Algoritmen zijn niet perfect. Dat is een punt dat in steeds grotere mate aandacht verdient van risicomanagers. Algoritmen hebben tekortkomingen. Ze hebben, net als mensen, last van biases. Het probleem dat aan dit alles ten grondslag ligt, is dat deze algoritmen ons eigen (discriminerende) gedrag blootleggen. Nu we AI steeds meer gebruiken, beginnen we een probleem te maken over de discriminerende resultaten ervan. Die resultaten leiden niet alleen tot suboptimale beslissingen, maar ook tot risico’s zoals reputatieschade voor de organisatie. Maar de algoritmen hebben geleerd van, en zijn gebaseerd op het gedrag dat wij vertonen. Zo’n algoritme kan immers alleen leren door heel veel vergelijkbare zaken uit het heden en verleden voorgeschoteld te krijgen: de dataset. Door de technologie die we maken, worden we nu geconfronteerd met ons eigen gedrag, wat dat betekent voor de organisatie en de samenleving. Er wordt ons een hele expliciete spiegel voorgehouden. Het algoritme zegt hardop wat wij zelf heimelijk hebben gedaan (en doen).

Enerzijds maakt dat het moeilijk om de technologie op een eerlijke manier te laten werken. Want daarvoor moeten we eerst onze eigen tekortkomingen van de afgelopen jaren (tot op heden) inzien en toegeven. Vanuit risicomanagement is er al ruime tijd steeds meer aandacht voor de invloed van gedrag op de risico’s van de organisatie. Maar dat blijkt ook een gebied dat in de praktijk lastig concreet te adresseren is.

Anderzijds biedt dit een mooie gelegenheid om te leren van onze eigen uitvindingen. Omdat we bij technologie de kans hebben om die discriminatie heel concreet te elimineren. Als je het algoritme 'vertelt' dat het niet mag discrimineren, zal het dat consequent op die manier toepassen. In tegenstelling tot ons eigen gedrag: we kunnen elkaar vertellen dat we niet mogen discrimineren, maar we zullen waarschijnlijk vaak vervallen in ons oude gedrag. We vinden het moeilijk om ons eigen gedrag écht in te zien, en redeneren de uitkomsten niet terug naar ons eigen gedrag. Hoe ga je als risicomanagement deze mogelijke bron van reputatierisico aanpakken?

Het ontwikkelen en toepassen van niet-discriminerend gedrag in algoritmen, het analyseren van de (waarschijnlijk positieve) uitkomsten en vervolgens leren op dezelfde manier te redeneren, kan ons helpen ons eigen gedrag, dat we zo verachten in de algoritmen die ons nadoen, te overwinnen. Het algoritme aanpassen, is iets waar de organisatie mee aan de slag gaat. Het resultaat daarvan kan de risicomanager als basis gebruiken voor de discussie over reputatierisico, gewenst gedrag en hoe dat bereikt kan worden.

En als we ons afvragen waarom discriminatie zo langzaam verdwijnt? Die algoritmen zijn niet de enigen die van ons gedrag leren. Onze kinderen doen dat ook. Die kijken niet enkel naar wat wij expliciet zeggen. Zij leren vooral ook van het gedrag dat wij vertonen, van de keuzes die wij maken. Als we het zo schokkend vinden wat de uitkomst is van onze algoritmen...  wat leren wij onze kinderen dan? Tegen de tijd dat zij dit soort beslissingen moeten nemen, hebben zij al jarenlang input van ons gehad waar ze van hebben geleerd. Maar zij zijn geen algoritme. Zij zijn niet geprogrammeerd. We geven kinderen niet 'even' een uitgebreidere, niet-discriminatoire dataset waarna zij op slag een andere mening krijgen.

Het is goed dat we een punt maken van de uitkomsten van onze AI-algoritmen, dat moeten we ook zeker blijven doen. We moeten dat oplossen en vanuit risicomanagement kunnen we het gebruiken om bijvoorbeeld reputatierisico te beheersen. Maar we moeten ons er vooral ook van bewust zijn dat de oorzaak van die fouten bij onszelf ligt en op nog veel belangrijkere punten ook een rol speelt. Dat lossen we niet op door algoritmen bij te stellen. Maar we kunnen die technologie wel gebruiken als spiegel voor ons eigen gedrag. En hopelijk zijn we dan eerlijk genoeg naar onszelf en steken we er iets van op. Zodat de nieuwe dataset die wij creëren met ons gedrag er een is die een mooier beeld laat zien in de spiegel. Want van die dataset leren de algoritmen… net als onze kinderen.

Probability & Partners is een Risk Advisory Firm die geïntegreerde risicomanagement en kwantitatieve modelleringsoplossingen biedt aan de financiële sector en aan data-gedreven ondernemingen.