Innovatieve ontwerpen
Vergeet de inwoner niet
Tekst Carolien Glasbergen
Carolien Glasbergen is voorzitter van de interessegroep Ethiek voor Informatieprofessionals bij de KNVI, senior projectmanager bij UWV en lid van het expertteam Data-Ethiek van UWV
Risico’s inschatten. Dat we het doen, is logisch en niet zo erg. Maar als we er zonder nadenken naar acteren, wordt dat het wel. De overheid gebruikt allerhande kansberekeningen waarmee burgers worden geclassificeerd, steeds vaker met behulp van algoritmes. Bij SyRI (Systeem Risico Indicatie) ging het te ver: te veel gegevens leverden een onevenredige inbreuk op in het privéleven. Bij de Toeslagenwet had dit grote gevolgen voor mensen. Maak daarom altijd ethische afwegingen bij innovatieve ontwerpen. Hoe gaan we daar praktisch mee aan de slag? Lees hieronder meer over de vragen die je altijd kunt stellen en het assessment dat je helpt na te denken over ethiek tijdens het ontwerpen van een systeem met algoritmes.
Om enerzijds burgers goed te ondersteunen en anderzijds fraudeurs te ontmaskeren, wordt steeds vaker ingezet op kansberekeningen. Er worden veel gegevens gebruikt ten behoeve van analyses, al dan niet met behulp van algoritmes. Bij steekproeven wordt gecorrigeerd op een representatieve samenstelling van respondenten om betrouwbare voorspellingen te kunnen doen. Door zeer grote hoeveelheden gegevens te gebruiken bij big data kunnen algoritmes patronen vinden zonder dat representativiteit nodig is. Het levert voorspellingen op en die komen niet altijd uit. Immers, resultaten op basis van het verleden bieden geen garantie voor de toekomst. Er dient dus precair te worden omgegaan met voorspellingen. Het lijkt erop dat dit niet gebeurde bij de Amsterdamse Top400 jongeren (12-24 jaar). Op basis van een aantal gegevens, bij elkaar gebracht door een speciaal team, werd voorspeld welke jongeren een gerede kans hadden om (verder) in de criminaliteit te geraken. Om dat te voorkomen werd voor minimaal 2 jaar een regisseur toegewezen om verschillende hulpinstanties te verbinden. Dat lijkt op zich een nobel streven, tot uit journalistiek onderzoek van de VPRO bleek dat er veel misging. Ouders wisten niet waarom hun kind in de Top400 terecht was gekomen en kregen geen antwoord op hun vragen. Hulpverleners kwamen en gingen. De politie hield de jongeren repressief in de gaten. Uit documentaires blijkt welke gevolgen de werkwijze met de Top400 had. Had dat ook anders gekund, was een aanpak mogelijk met meer oog voor (de families van) de jongeren?
Ethische afwegingen
Direct na het bedenken van zo’n top400 kunnen de eerste ethische afwegingen al worden gemaakt. Dat gebeurt door met een zo divers mogelijke groep mensen het idee van alle kanten te belichten. In het kader hierna vind je een aantal vragen die daarbij behulpzaam kunnen zijn: In dialoog zullen risico’s en kansen aan de orde komen. De mogelijke impact van het idee wordt verkend aan de hand van de vragen. Inzichten kunnen worden meegenomen naar de volgende fase van ontwikkeling. Er zijn diverse modellen en best practices beschikbaar om op verschillende momenten in het ontwikkelproces te gebruiken. Zie ook de Toolbox Ethisch Verantwoorde Innovatie van de digitale overheid.
Ethische afwegingen
- Plicht: hoe zorgt de technologie ervoor dat volgens normen en regels wordt gehandeld?
- Deugd: hoe zorgt de technologie voor deugdzame keuzes en wat is deugdzaam dan?
- Gevolgen: hoe streeft de in te zetten technologie ernaar om de meeste mensen te laten profiteren en het minst aantal mensen te schaden?
- Tijd: welke beïnvloeding en effecten zijn er door de technologie op langere termijn?
- Schaalgrootte: wat is het gevolg als heel grote groepen gebruik gaan maken van de technologie? Wat betekent dat voor de mensen die het niet gebruiken?
- Omkeerbaarheid: is deelname of een beslissing definitief, kan deze worden aangepast en kan worden ingegrepen? Relatie: hoe beïnvloedt de technologie de relatie met en tussen mensen?
‘HET VERLEDEN BIEDT GEEN GARANTIE VOOR DE TOEKOMST’
Mensenrechten
De Universiteit Utrecht ontwikkelde voor het ministerie van Binnenlandse Zaken en Koninkrijksrelaties het Impact Assessment voor Mensenrechten bij de inzet van Algoritme (IAMA). Dit model is opgebouwd uit vier delen: waarom, wat, hoe en mensenrechten.
- Waarom In het eerste deel wordt de bedoeling van de voorgestelde regeling doorgesproken. De Top400 is opgezet om jongeren zo te begeleiden dat zij niet in de criminaliteit terechtkomen. In de documentaire vertellen moeders dat die opzet niet slaagt, integendeel. Doordat deze jongeren steeds met politie in aanraking komen, ogenschijnlijk zonder aanleiding, wordt hun beeld negatief gevoed. Doordat er geen stabiel regieteam is moet de situatie steeds aan andere hulpverleners worden uitgelegd en blijft adequate hulp achterwege. Het gevolg is dat de jongeren en hun familieleden juist gestigmatiseerd worden als criminelen in de dop. De bedoeling van het programma komt niet uit de verf. Door eerst vanuit alle invalshoeken uitgebreid door te spreken wat het doel van het programma is, waarom het is opgericht, wat bereikt moet worden en waarom wordt gekozen voor deze manier, kan het ontwerp worden getoetst aan deze uitkomst. Zo kan een tegengestelde uitkomst worden voorkomen.
- Wat In het tweede deel van het IAMA wordt ingegaan op het gebruik van gegevens en hoe deze worden ingezet. Niet alleen speelt privacywetgeving een grote rol, maar ook de relevantie van gegevens, de betrouwbaarheid en het mitigeren van bias. Bij de Top400 worden gegevens bij elkaar gelegd van verschillende bronnen, zoals school, politie, GGD en jeugdbescherming. Omdat het aantal van 400 jongeren niet wordt gehaald, wordt besloten ook jongeren toe te voegen die niet voldoen aan alle criteria. Dit is zo’n punt wat niet lijkt te passen bij de doelstelling, want die was niet 400 jongeren, maar een groep jongeren die aan bepaalde criteria voldeed. Vervolgens wordt in het algoritme bepaald hoe de gegevens, in relatie met elkaar, tot een voorspelling komt met betrekking tot de kans dat een jongere verder in de criminaliteit geraakt. Transparantie en uitlegbaarheid zijn belangrijk. De moeders in de documentaire kregen die uitleg echter niet.
- Hoe In het derde deel wordt bepaald hoe uitvoering wordt gegeven aan en toezicht wordt gehouden op het programma. De doelstelling en uitgangspunten met onderkende risico’s en impact zijn hierbij van belang. Was het in de Top400 in het kader van personeelsverloop wel uitvoerbaar om een regisseur gedurende minimaal twee jaar te koppelen aan een jongere? Kon hulp worden geweigerd? Had de politie zich niet kunnen opstellen als de beste vriend? In deze fase worden ook de feedbackloops ingebouwd: Wordt het doel wel bereikt en anders bijstellen.
- Mensenrechten In de laatste fase worden mensenrechten in het ontworpen systeem gewogen. Als het IAMA-model was gebruikt bij het ontwerpen van het Top400 systeem waren er wellicht fikse verbeteringen doorgevoerd voor en tijdens de uitvoering.
Uitvoering
We geven de schuld graag aan algoritmes. In het geval van de Top400 berekende het algoritme een kans aan de hand van gegevens die door mensen werden aangeleverd. Het waren mensen die de jongeren begeleidden. Gaat het hier daarom niet veel meer over het mensbeeld van bedenkers en uitvoerders? Net als bij de Toeslagenwet moet op juiste wijze worden omgegaan met een selectielijst, of deze nu uit een algoritme komt of op andere wijze ontstaat. Als ervan wordt uitgegaan dat iemand geen vrije keuze heeft om een ander pad te volgen dan de berekende kans, dan wordt niet meer uitgegaan van individuele verantwoording. Er is dan sprake van datadictatuur en dat past niet bij mensenrechten. Ook zal een zelfversterkend mechanisme optreden. Als de focus op een specifieke situatie wordt ingezet dan zullen daardoor meer gebeurtenissen worden gedetecteerd. Als gevolg daarvan wordt er nog meer focus op die situatie aangebracht en minder op andere situaties, enzovoort. Het lijkt succesvol, maar er is dan geen sprake meer van gelijke kansen.
‘WE GEVEN DE SCHULD GRAAG AAN ALGORITMES’
Informatiehuishouding
De overheid wil transparanter zijn door algoritmeregister(s) openbaar te maken. Het mag duidelijk zijn dat alle afwegingen rond het ontwikkelen “van idee naar uitvoering” goed gedocumenteerd moeten worden. De onderbouwing van keuzes moet terug te vinden zijn. Dat geldt ook voor de keuze voor en werking van een algoritme, het gebruik van controlegroepen, uitslagen van evaluaties en bijstellingen en natuurlijk gebruik van gegevens. Een master datamanagementbeleid kan hierbij helpen. Het invullen van het IAMA levert ook documentatie op, dat vervolgens wel moet worden onderhouden. In het kader van transparantie en uitlegbaarheid is het ook nodig om de input en uitkomst van een specifieke casus te kunnen herleiden (met exact dezelfde uitkomst) of in te zien. Dat biedt een uitdaging voor de wijze van vastleggen en archiveren bij die casus. Uiteindelijk draait het in onze rechtsstaat erom dat we ook bij innovatieve ontwerpen de (rechten van de) inwoner niet mogen vergeten en een prominente plek geven bij het ontwerp.