Amba Zeggen: Machine learning en AI, wie waarborgt de grenzen?

Amba Zeggen: Machine learning en AI, wie waarborgt de grenzen?

Risk Management Technology
Amba Zeggen (foto archief Probability)

Door Amba Zeggen, Lead Risk Culture and Behavior bij Probability & Partners

AI en machine learning (ML) veranderen met grote snelheid onze manier van werken en vinden steeds meer toepassingen in de financiële en verzekeringssector. Kredietbeoordeling, fraudedetectie en beleggingsadviezen zijn slechts enkele financiële gebieden waar ML-aangedreven modellen al worden gebruikt. Dergelijke modellen vinden ook hun weg naar de verzekeringssector.

Zo kunnen (persoonlijke) data in combinatie met geavanceerde modellen leiden tot een betere inschatting van risico’s en vervolgens exacter prijzen van verzekeringspremies. Ook kan een gedeelte van de klantinteractie en declaratieafhandeling overgenomen worden door AI-gedreven automatisering. Echter, deze ontwikkelingen komen met de nodige risico’s1. Uitlegbaarheid en ethiek zijn terugkerende thema’s die extra aandacht vereisen.

Aan de ene kant kunnen verzekeraars het zich niet veroorloven om deze nieuwe modellen en technieken niet te gebruiken, aan de andere kant bestaat het gevaar dat een wildgroei van toepassingen en implementaties binnen het hele verzekeringsbedrijf, zonder passende controle en/of beleid, meer nieuwe risico’s introduceert die niet (tijdig) worden onderkend.

Aandacht voor ethiek en integriteit

De risico’s die meestal vanzelfsprekend aandacht krijgen bij het gebruiken van dergelijke technieken, liggen op het technische vlak. Maar waar nog onvoldoende aandacht voor is, zijn de ethische en integriteitsaspecten van dergelijke modellen. Bijvoorbeeld de vraag of de gebruikte dataset om het model te trainen vooringenomenheid bevat waardoor het AI-model bevooroordeeld kan worden, wat zou leiden tot oneerlijke behandeling van bepaalde klantengroepen. Of de mate van uitlegbaarheid van het model: AI-modellen zoals neurale netwerken zijn complex en moeilijk te begrijpen.

Het gebrek aan transparantie en uitlegbaarheid kan problematisch zijn in de verzekeringssector, waar het belangrijk is om beslissingen te kunnen verantwoorden aan klanten, regelgevers en andere belanghebbenden.

Beheersmaatregelen

Om tijdig en consistent invulling te geven aan de hiervoor genoemde ethische en integriteitsaspecten is het van belang om vanaf stap één bij het ontwikkelen, implementeren en gebruiken van dergelijke modellen de beheersing van ethische en integriteitsissues te borgen. De verzekeraar moet het beheersen van integriteitsrisico’s als een onlosmakelijk deel beschouwen van het toepassen van AI-modellen.

Dit vereist onder andere dat verzekeraars het governance-raamwerk omtrent het ontwikkelen en gebruiken van dergelijke modellen (inclusief dataselectie) hierop uitbreidt. Het moet vanaf stap één duidelijk zijn welke verantwoordelijkheden belegd zijn bij het bestuur, bij de tweede en bij de derde lijn, en welke besluitvormingscriteria de verzekeraar hanteert voor het al dan niet toepassen van AI-modellen.

Belangrijke vragen voor het bestuur, zoals ook aangehaald in de AFM-analyse, zijn bijvoorbeeld:

  • Hoe waarborgt de verzekeraar dat de verantwoordelijkheid voor AI-toepassingen duidelijk is belegd binnen het bestuur?
  • Hoe waarborgt de verzekeraar en dat het verantwoordelijke bestuurslid voldoende technische kennis en afdoende ervaring heeft om de risico’s van AI-toepassingen in te schatten, te toetsen en sturing te geven richting de organisatie?

Voor het tweedelijnsrisicomanagement is het belangrijk dat een toets op mogelijke bias en ethische overwegingen onderdeel is van risicobeoordeling van modellen. Risicomanagement dient te toetsen of AI-modellen eerlijke en rechtvaardige resultaten opleveren, zonder discriminatie op basis van factoren zoals geslacht, ras of leeftijd.

Een andere belangrijke taak voor het tweedelijns risicomanagement is het bevorderen van bewustzijn en kennis over AI-modellen binnen de verzekeraar en het trainen van medewerkers over AI-technologieën, risico's en best practices.

Verankeren in governance-systeem

Dit zijn slechts enkele voorbeelden om de ethische en integriteit risico’s te onderkennen en te beheersen. Het is van belang dat verzekeraars deze taken en verantwoordelijkheden verankeren in het governance-systeem, om zo verantwoord gebruik van AI modellen te borgen.

 

1: Zie bijvoorbeeld ‘Technologie richting 2033: De toekomst van verzekeren en toezicht’ uit 2023 van AFM en in 2019 ‘Artificiële Intelligentie in de verzekeringssector, een verkenning’ van AFM/DNB.

 

Probability & Partners is een Risk Advisory Firm die geïntegreerde risicomanagement en kwantitatieve modelleringsoplossingen biedt aan de financiële sector en aan data-gedreven ondernemingen.