Tekst Inge Strijker
Inge Strijker is docent opleiding HBO-ICT en onderzoeker bij het lectoraat Digital Business and Society van Hogeschool Windesheim
Meer rechtvaardigheid dankzij algoritmes
In het vorige artikel van deze reeks (https://magazines.od-online.nl/od-editie-33/opinie-over-ai-door-inge-strijker) heb ik toegelicht hoe vooroordelen in algoritmes sluipen. Maar algoritmes kunnen ons ook juist helpen om tot een rechtvaardiger maatschappij te komen.
Algoritmes zijn van zichzelf neutraal. Het zijn systemen die niet zelf nadenken, maar doen wat hen wordt opgedragen. Zij hebben geen vooroordelen en zijn dus onpartijdig. Van deze onpartijdigheid kunnen we profiteren. Om dit te verduidelijken, heb ik een denkmodel ontwikkeld dat gebaseerd is op de bekende leerfasen van Maslow: van onbewust onbekwaam, naar bewust onbekwaam, via bewust bekwaam, tot bewust bekwaam. Met deze fasen in gedachten heb ik een variatie op dit model ontwikkeld: van onbewust met vooroordelen naar onbewust zonder vooroordelen.
Figuur 1: Van onbewust met vooroordelen naar onbewust zonder vooroordelen
Zoals in het vorige artikel beschreven hebben mensen vooroordelen waar zij zich soms niet bewust van zijn. Dit is de situatie linksboven in het kwadrant hierboven. Door allerlei gebeurtenissen worden wij ons bewuster van onze vooroordelen. Bijvoorbeeld op microniveau: je zoon trouwt met iemand met een andere etnische achtergrond en jouw beeld van deze groep mensen verandert hierdoor. Een shift op mesoniveau: je volgt een inclusiviteitstraining op je werk en samen met je collega’s worden jullie je meer bewust van vooroordelen in jullie denken. Op macroniveau zijn er ook ontwikkelingen die ons collectief bewuster maken van onze vooroordelen: #metoo en de zwartepietendiscussie zijn hiervan (soms schurende) voorbeelden.
Nu vooroordelen zichtbaar zijn kan hier iets aan gedaan worden. Dit moet gebeuren in de hoofden van mensen, maar minstens zo doeltreffend is dat dit gebeurt in onze algoritmes. Immers, deze algoritmes nemen een steeds groter deel in van onze leefwereld en deze algoritmes zijn neutraal. Hoe we deze vooroordelen binnen algoritmes tegen kunnen gaan is onderwerp van de volgende paragraaf. De laatste stap in het kwadrant: wanneer algoritmes minder vooroordelen bevatten en wanneer deze algoritmes een steeds groter deel gaan uitmaken van ons en onze leefwereld, zullen we in onze leefwereld, ook op een onbewust niveau, vanzelf minder vooroordelen tegenkomen.
Tegengaan vooroordelen in algoritmes
Het tegengaan van vooroordelen in algoritmes dient op verschillende niveaus te gebeuren: 1) Mens: een grotere diversiteit in de mensen die ict bedenken en maken, zal leiden tot eerlijkere systemen. (West, Whittaker, & Crawford, 2019). Hoe te komen tot een grotere diversiteit in het personeelsbestand is een pittig HRM-vraagstuk omdat de huidige populatie ict’ers vrij homogeen is (veelal wit en man). Door actief op zoek te gaan naar medewerkers die niet in het standaardplaatje passen en er vervolgens voor te zorgen dat deze mensen zich thuis voelen, kan de diversiteit vergroot worden. Diversiteit in ict gaat uiteraard over meer doelgroepen dan vrouwen, maar hierover is wel veel onderzocht, zoals de Toolbox Gender Include IT (https://www.wijzijnkatapult.nl/ictinclusiefvrouwen/). Verder is het ook van belang dat business- en ict-medewerkers weten hoe ethisch te redeneren. Wanneer medewerkers ethische vraagstukken in hun werk herkennen en bij botsende waarden een morele afweging kunnen maken, zullen er minder vooroordelen in algoritmes sluipen. Er zijn verscheidene ethische methoden die gebruikt kunnen worden bij het ontwikkelen van algoritmen (NL AI coalitie, 2022) en hier wordt hard op ingezet bij de rijksoverheid met de Werkagenda Waardengedreven Digitaliseren (Rijksoverheid, 2022). Investeren in ethiek is dus een noodzaak. 2) Proces: algoritmes zijn een onderdeel binnen een systeem van samenhangende processen. Zoals bij de rijksoverheid van wetgeving tot het uitvoeren van de hieruit voortvloeiende taken. Dit geheel van processen rondom algoritmes noemen we het algoritmisch systeem. Bij iedere stap binnen dit algoritmisch systeem kan bias ontstaan. Door dit proces helder in te richten, bijvoorbeeld met als leidraad Impact Analyse Mensenrechten en Algoritmes (IAMA), wordt de kans op vooroordelen binnen dit systeem verkleind. 3)Technologie: AI leert over het algemeen van historische data en is daarmee een afspiegeling van onze samenleving nu en vooral van vroeger. Tooling kan helpen om de ongelijkheid in datasets te verkleinen en deze representatiever te maken. Daarnaast zijn er allerlei ontwikkelingen om AI-modellen te helpen om rechtvaardiger te worden. Tools variëren van open-source toolkits als Fairlearn tot tools van techbedrijven als AI Fairness 360 van IBM. 4) Transparantie: transparantie is nodig binnen de drie niveaus zelf. Mens: een organisatiecultuur van transparantie leidt ertoe dat mensen zich eerder durven te uiten wanneer zich misstanden voordoen. Proces: een transparant proces leidt tot heldere stappen met duidelijke escalatieniveaus om te komen tot rechtvaardigere algoritmes. Technologie: soms is het denkbaar dat een enkel algoritme niet uitlegbaar is, maar wanneer AI-toepassingen ingrijpend zijn in een mensenleven is het niet aanvaardbaar dat de uitkomsten van een algoritmisch systeem zelfs voor de maker technisch onuitlegbaar zijn (Maurits, 2023). Daarnaast dienen organisaties transparant te zijn naar de buitenwereld over hun algoritmische systemen. De overheid zet hierin nu een stap met de invoering van het algoritmeregister. Wanneer dit register zodanig functioneert dat het burgers vertrouwen geeft in de algoritmische systemen, biedt het daarmee tegelijk een spiegel aan de organisatie zelf.
Verder dan technologie
Algoritmes gaan dus veel verder dan alleen technologie. Er moet meer aandacht komen voor mens, ethiek en proces. Zonder scherpe focus op deze onderdelen, zal een algoritme nooit rechtvaardig worden. In het laatste artikel in deze reeks licht ik het onderzoek toe dat we met studenten van HBO-ICT van Windesheim hebben gedaan op de onderdelen proces en technologie bij de Dienst Toeslagen.