Ethics Matter: Hoe Artificiële Intelligentie haar plek verdient binnen ESG

Ethics Matter: Hoe Artificiële Intelligentie haar plek verdient binnen ESG

Technology ESG
Liesbeth Hazebroek (Ethics Matter)

Institutionele beleggers kunnen bijdragen aan de juiste inzet van Artificiële Intelligentie (AI) voor economie, samenleving en milieu door ‘responsible’ AI-criteria toe te voegen aan het ESG-raamwerk.
 
Door Liesbeth Hazebroek, Ethicus en Oprichter, Ethics Matter

 

AI zal een groot effect hebben op onze toekomstige welvaart en welzijn. Door haar algemene toepasbaarheid heeft AI een toenemende impact op alle bedrijfssectoren, ons privéleven en de maatschappij als geheel. De manier waarop wij hier nu richting aan geven en controle over nemen, zal de invloed van AI op onze toekomst bepalen.

Zowel vanuit hun financiële als vanuit hun maatschappelijke functie hebben institutionele beleggers hierin een belangrijke rol te vervullen. Door proactief te handelen, kunnen zij mede richting geven aan de ontwikkeling en de toepassing van AI, zodat het leidt tot economisch en sociaal voordeel.

Om dit te realiseren, doen beleggers er goed aan om naast criteria voor milieu, sociaal en goed bestuur (oftewel ESG) ook criteria op te stellen voor ‘responsible AI’.

AI is overal

AI is niet langer alleen iets van grote techbedrijven. Bijna alle grote bedrijven, organisaties en overheden gebruiken één of meerdere AI-systemen en hebben dit verweven in hun bedrijfsvoering. AI kan fabricageprocessen ondersteunen en productiekosten verlagen, het energienetwerk efficiënter maken, auto’s besturen zonder chauffeur, kankertumoren identificeren, operaties op afstand mogelijk maken, medische geschiedenis en testresultaten analyseren, robots aansturen, helpen bij het modelleren van klimaatverandering, datacenters efficiënter runnen dan mensen, voorspellingen doen over ons gedrag en met suggesties en aanbiedingen reageren op onze waargenomen gemoedstoestand en op onze wensen en behoeften. Het kan ons ertoe aanzetten zowel gezonde als ongezonde keuzes te maken. Het gebruik van AI als hulpmiddel voor of ter vervanging van het menselijke oordeel en besluitvorming varieert van triviaal – zoals beslissen welke richting op te gaan – tot verreikend. Bijvoorbeeld over de vraag of we krediet krijgen van de bank of dat we op borgtocht vrijkomen na arrestatie door de politie.

AI wordt gezien als dé manier voor bedrijven om efficiency te verbeteren, kosten te verlagen en research en development te bespoedigen. Het enorme ‘potentieel’ van AI brengt echter ook een enorme ‘verantwoordelijkheid’ met zich mee. Weinig beleggers stellen ethische criteria om het gebruik van AI te reguleren en risico’s te beperken, zowel bij eigen gebruik als door de ondernemingen waarin ze investeren.

Risico’s van ongereguleerde AI

De economische en maatschappelijke risico’s van ongereguleerde AI zijn groot. Zo toont het schandaal omtrent Cambridge Analytica aan hoe misbruik van AI kan leiden tot privacy-inbreuken, polarisatie, gedragsbeïnvloeding, verlies van autonomie en uiteindelijk vergaande politieke consequenties. Denk bij dat laatste aan de Brexit, de verkiezing van Donald Trump en de toeslagenaffaire. Maar ook de vooroordelen gedocumenteerd in de zoekmachines van Google en de wervingstools van Amazon tonen hoe de ongereguleerde inzet van AI zonder kwade bedoelingen kan leiden tot vooroordelen, discriminatie, uitsluiting van groepen en een zogenoemde responsibility gap.

De casus van Zillow Offers (de Amerikaanse equivalent van Funda), die op basis van foutieve AI-voorspellingen huizen opkocht, laat zien hoe een te grote afhankelijkheid van AI en het beschouwen van AI als de heilige graal tot grote verliezen kan leiden. En dit is nog maar het topje van de ijsberg. Zelfs een relatief simpele inzet van AI, door keycards bij de toegangspoortjes te vervangen door gezichtsherkenning, kan tot ethische issues leiden. Bijvoorbeeld doordat gezichtsherkenningstechnologie donkere gezichten niet goed herkent.

En dan hebben we het nog niet eens gehad over de mogelijke invloed van AI op het veroorzaken van werkloosheid, verlies van menselijk contact (door inzet van robots/chatbots), gezondheidsschade, schending van mensenrechten (clickworkers), milieukwesties (door toename van energie en afval) en de toenemende macht en uiteindelijke monopolievorming bij de vijf grootste technologiebedrijven.

Net als milieu- en sociale kwesties zijn AI-kwesties niet ‘slechts’ problemen op dat niveau alleen. Ze kunnen leiden tot schandalen, verlies van vertrouwen, reputatieschade, latere claims en zelfs faillissementen van bedrijven. Hiermee zijn ze ook absoluut – en in toenemende mate – cruciaal voor het concurrentievermogen en de financiële prestaties van zowel individuele bedrijven als de bredere economieën en samenlevingen waarin ze actief zijn.

Problemen met regulering

Met wet- en regelgeving kunnen risico’s worden verkleind, maar vanwege de ontwikkelingssnelheid en de schaal van AI, het gebrek aan de benodigde expertise, de beperkingen door jurisdictie en marktvrijheid en de complexiteit van de AI-ketens, zijn ze te beperkt.

Daarnaast zijn AI-risico’s lastig te tackelen, omdat ze in sterke mate afhangen van de context, zoals de soort en inrichting van een onderneming en de specifieke toepassing. Zo had de Belastingdienst in de toeslagenaffaire hetzelfde algoritme dat leidde tot de blinde veroordeling van mensen, ook kunnen gebruiken om historische fraude-indicatoren nader te onderzoeken en te corrigeren.

Het belang van zelfregulering

De beste manier voor bedrijven om met het gebrek aan voldoende (internationale) regulering om te gaan en toch de vruchten te plukken die AI te bieden heeft, is door middel van zelfregulering. Hiermee kunnen efficiënte, snelle aanpassingen in het beleid gedaan worden naarmate een technologie evolueert. Ook de benodigde knowhow over de context en expertise van de specifieke toepassing om de ethische risico’s goed te kunnen inschatten, is dan al in huis. IBM lijkt hier een goed voorbeeld van. Een interne ethische commissie toetst de technologie van IBM continu aan haar ethische principes. Dit resulteerde onder meer in het stoppen met de verkoop en ontwikkeling van gezichtsherkenningstechnologie vanwege (bewezen) risico’s op surveillance en etnisch profileren.

Het grootste deel van de markt zal echter bij gebrek aan economische prikkels niet vanzelf responsible AI leveren. Ontwikkelaars en gebruikers concurreren op prijs en gebruiksgemak en niet zozeer op ethische criteria. Hier kan ESG een uitgelezen oplossing bieden.

Gereguleerde zelfregulering via ESG

ESG kan, onder meer door de economische prikkels die daarvan uitgaan, alsmede de (toekomstige) wetgeving omtrent openbaarmaking en verslaglegging, ook een rol spelen in gereguleerde zelfregulering van AI door bedrijven.

Met het stellen van flexibele en meetbare criteria voor responsible AI, als onderdeel van of als aparte pijler binnen het ESG-raamwerk, kunnen beleggers een dwingende stimulans bieden aan bedrijven om hun AI-praktijken te veranderen en te voldoen aan ethische normen voor AI. Hiermee kunnen zij mogelijke schade van AI aanpakken en beperken. Bovendien kunnen de maatschappelijke voordelen van AI worden gestimuleerd en vergroot. Bijvoorbeeld door te investeren in ‘goede’ AI-bedrijven, die privacy beschermen en transparant zijn. En verder valt nog te denken aan de directe bijdrage aan de economie en eerlijke concurrentie door middel van impactbeleggen, om zodoende de macht en afhankelijkheid van de grote techbedrijven te doorbreken.

Conclusie

De brede toepassing, complexiteit en snelle ontwikkeling van AI maken dat wetgeving niet snel en adequaat genoeg is om voldoende sturing te geven. ESG is het middel bij uitstek om grip te krijgen op en sturing te geven aan de verantwoorde ontwikkeling en inzet van AI.

 

IN HET KORT

Artificiële Intelligentie wordt steeds meer toegepast door bedrijven, organisaties en overheden.

AI heeft een groot effect op onze toekomstige welvaart en welzijn.

Wettelijke regulering van AI is onvoldoende, als deze al aanwezig is.

Ongereguleerde AI kan negatieve maatschappelijke en economische gevolgen hebben.

‘Gereguleerde’ zelfregulering van bedrijven in de vorm van ESG kan een oplossing bieden.

Attachments