AI aan het stuur?
Een reis met onbekende bestemming
Tekst Edwin Driessen
Edwin Driessen is redactielid Od
Als lectoren bij respectievelijk het lectoraat Betekenisvol Digitaal Innoveren en het lectoraat Artificial Intelligence van de Hogeschool Utrecht houden Marlies van Steenbergen en Stefan Leijnen zich onder andere bezig met de mensgerichte kant van kunstmatige intelligentie. Een interview over ethiek, vertrouwen, verantwoord toepassen van AI en de rol van de overheid, kennisinstituten en informatieprofessionals.
AI biedt ongekende mogelijkheden en we willen allemaal dat AI verantwoord wordt toegepast. Maar hoe bepaal je wat verantwoord is en wat niet?
Van Steenbergen: ‘Dat is de kernvraag van ons lectoraat. Verantwoord innoveren is het recht doen aan en rekening houden met menselijke en publieke waarden. Dus wat is de impact van een algoritme op individuen, organisaties en maatschappijen en de generaties na ons? Daarnaast: hoe pas je verantwoord AI toe en geef je het vorm? Dat doe je bijvoorbeeld door middel van value sensitive design, waarbij je kijkt naar wat je wilt ontwikkelen, wie de gebruikers van een AI-toepassing zijn, maar ook wie er verder nog door geraakt worden. Je onderzoekt, met deze betrokkenen, de mogelijke positieve en negatieve gevolgen. Al die inzichten geven richting aan je ontwerp.’
Hoe passen mensgerichte waarden in dit verhaal?
Leijnen: ‘Mijn lectoraat focust zich op de vraag hoe je AI mensgericht kunt inzetten. Traditionele ict-systemen worden van a tot z ontworpen: de programmeur weet hoe het werkt, kan bedenken wat er mis kan gaan en dat daarmee voorkomen of achteraf herstellen. Bij AI weet je vaak niet van a tot z hoe het werkt, als het systeem bijvoorbeeld zelflerend is. Veel van de problemen met betrekking tot AI die we de laatste jaren zien, zijn daarop terug te voeren. AI is in die gevallen biased, moeilijk te herstellen en niet transparant, en dus niet zonder meer toekomstbestendig.’
‘NEDERLAND IS ER GOED IN OM DE VERTAALSLAG TE MAKEN NAAR DE PRAKTIJK’
Dat verwart me. Hoe kan AI een betekenisvolle innovatie zijn terwijl we niet weten waar het naar toe leidt?
Van Steenbergen: ‘Het is eenvoudiger om betekenis te geven aan specifieke AI-toepassingen dan aan AI op systeemtechnisch niveau. We weten niet welke kant het op gaat. Gaat de AI de mensheid redden, zoals sommige mensen hopen? Deze discussie wordt gevoerd op verschillende niveaus.’ Leijnen: ‘Je kunt het vergelijken met de uitvinding van de stoommachine. Dit vormde de katalysator voor uitvindingen als spoorwegen, treinen, nieuwe fabricageprocessen maar ook wetgeving en vakbonden… Zaken die men bij voorbaat niet had kunnen voorspellen. Wat we nu wel kunnen doen, is heel dicht op de ontwikkelingen van AI zitten en daar waar mogelijk vooruitkijken en bijsturen.’ Van Steenbergen: ‘De maatschappij bezit in dit opzicht een corrigerend vermogen.’
Stefan Leijnen: ‘Enerzijds stelt de overheid beleid en wetten op, anderzijds is zij zelf ook gebruiker van AI richting de burger’
Dr. Stefan Leijnen is lector bij het lectoraat Artificial Intelligence van de Hogeschool Utrecht (HU), dat onderzoek doet naar toepassingen van artificial intelligence en datagedreven innovatie. Mensgerichte waarden als transparantie, vertrouwen, creativiteit en autonomie staan daarbij centraal. Naast zijn werkzaamheden voor de HU is hij adviseur bij de Nederlandse AI Coalitie, oprichter van het Asimov Institute en werkt hij als freelance spreker en consultant. Eerder was hij werkzaam als CTO bij War Child Holland en onderzoeker aan de Universiteit van Liverpool, UC Berkeley, Hogeschool van Amsterdam, Tufts University en University of British Columbia.
Marlies van Steenbergen: ‘Het is eenvoudiger om betekenis te geven aan specifieke AI-toepassingen dan aan AI op systeemtechnisch niveau’
Er bestaat zoiets als de ethische kant van AI en ook Nederland houdt zich daar mee bezig. Wat is het Nederlandse standpunt?
Leijnen: ‘Het Nederlandse standpunt hangt samen met Europese waarden en wetgeving. Er wordt op dit moment wetgeving ontwikkeld op basis van ethische richtlijnen, zoals transparantie, privacy en respect voor de menselijke autonomie. Dit zal een juridisch kader gaan vormen dat in enkele jaren in heel Europa zal worden afgedwongen.’ Van Steenbergen: ‘Het is een bewuste keuze van Europa om die ethische kant mee te nemen. Dat is deels cultureel bepaald en ook een beetje de keuze om zich af te zetten tegen de grote Amerikaanse techbedrijven, daar een alternatief tegenover te zetten en daar de beste in te worden.’ Leijnen: ‘Waar Europa werkt aan kaders en richtlijnen, zijn we er in Nederland heel goed in om de vertaalslag te maken naar de praktijk. Kijk bijvoorbeeld naar:
- ELSA-labs; een netwerk van labs waar onderzoek gedaan wordt hoe je AI ontwikkelt en gebruikt, rekening houdend met ethische, juridische en sociale aspecten. We merken dat andere landen interesse tonen in dit Nederlandse model.
- Begeleidingsethiek waarin de focus niet ligt op verbieden maar op het begeleiden van organisaties bij het maken van de juiste keuzes.
- De Hogescholen van Utrecht, Amsterdam en Rotterdam zijn recent gestart met het Responsible Applied AI-programma, waarin de komende jaren onderzoek wordt gedaan naar verantwoorde AI-methodologie in de praktijk.’
Mooie initiatieven! Maar hoe zorgen we ervoor dat we niet onder de druk van de grote commerciële techreuzen bezwijken en daarmee de ethische waarden op het spel worden gezet?
Van Steenbergen: ‘Je kunt dit uitleggen aan de hand van niveaus. Op individueel niveau help je vooral de techreuzen en vergroot je hun macht door hun producten te gebruiken. Op een ander niveau is een rol weggelegd voor overheden als een soort hoeders van onze maatschappij. Tot slot kunnen burgers zich organiseren en tegenwicht bieden, net zoals er vakbonden ontstonden tijdens de industriële revolutie tegen uitbuiting van arbeiders.’
Dr. ir. Marlies van Steenbergen is sinds 2017 lector bij het lectoraat Betekenisvol Digitaal Innoveren van de HU. Ze richt zich met haar programmalijn op value sensitive design van datagedreven innovatieve diensten en zoekt naar manieren om de digitale ethische bekwaamheid van professionals te vergroten. Ze studeerde Algemene Taalwetenschap aan Rijksuniversiteit Groningen en Technische Informatica aan TU Delft. In 2011 promoveerde ze aan Universiteit Utrecht op de effectiviteit van architectuurfuncties. Naast lector is ze principal consultant enterprise architectuur bij Sogeti Nederland. Ze ontving de NAF-penning 2018 voor haar bijzondere betekenis voor de ict-architectuurgemeenschap in Nederland.
Dus opkomen voor je eigen rechten?
Leijnen: ‘Ja, inderdaad. Maar dat commerciële techbedrijven rekening houden met burgerrechten, is ook een Europees belang. Zo heeft Europa recent uitgehaald naar Facebook, omdat het niet voldoet aan de eis om data van Europese burgers binnen Europa te bewaren. Deze opstelling schept ruimte voor big tech-alternatieven in Europa die zich vriendelijker opstellen voor de belangen en rechten van burgers.’ Van Steenbergen: ‘Er zijn alternatieven. Bijvoorbeeld Signal als alternatief voor WhatsApp. Dus we zouden in groten getale kunnen overstappen.’
Op welke wijze kunnen informatieprofessionals invloed uitoefenen op de toekomst van AI?
Leijnen: ‘Ook hier is sprake van gelaagdheid. Op individueel niveau moeten ze in ieder geval op de hoogte blijven van de ontwikkelingen. AI begrijpen, kritisch blijven en vooral niet wegkijken voor de complexiteit en nuances die gepaard gaan met nieuwe technologie. Hoe we deze houding inbedden in een organisatie? Zorg voor een trainingsaanbod voor alle medewerkers, voor basisbegrip van AI en de verschillen tussen AI en traditionele ict. En participeer als overheden en informatieprofessionals in die ELSA-labs zodat je als organisatie in een gecontroleerde omgeving kunt experimenteren. Verder is belangrijk om de krachten te bundelen en deel te nemen aan de maatschappelijke dialoog.’
‘ALS KENNIS ER NIET IS, IS HET BELANGRIJK OM DIE TE ORGANISEREN’
Wat is de rol van de overheid?
Leijnen: ‘De overheid heeft meerdere rollen. Enerzijds is ze verantwoordelijk voor het opstellen van beleid en wetten, anderzijds is zij zelf ook gebruiker van AI richting de burger. De ict leent zich uitstekend om te experimenteren in een commerciële setting. Het is relatief goedkoop om fouten te maken en je hebt in principe alleen denkkracht en een stevige computer nodig. Maar voor de overheid is experimenteren helaas stukken lastiger, want overheden zijn anders ingericht: robuustheid, veiligheid en inclusiviteit kunnen indruisen tegen het experimentele karakter van digitalisering.’ ‘De overheid heeft hierin drie verantwoordelijkheden. Ten eerste: niet experimenteren als dit nadelig kan uitpakken voor burgers, zoals bedrijven dat soms wel doen, maar optrekken met experts en kennisinstellingen in goed gecontroleerde omgevingen. Ten tweede: daar waar het gaat om beleid en wetgeving juist snelheid en wendbaarheid vooropstellen om het tempo van innovatie, dat wordt gedicteerd door wetenschap en bedrijfsleven, bij te kunnen benen. En ten derde: door ook zelf relevante kennis op te doen.’
Moet je dan per se een economische achtergrond hebben om minister van Financiën te worden?
Leijnen: ‘Niet per se op individueel niveau, maar het zou de digitalisering in Nederland ten goede komen als er in de Tweede Kamer meer relevante kennis en expertise op dit gebied aanwezig zouden zijn.’ Van Steenbergen: ‘Ja, kennis moet er zeker zijn. Belangrijk om dat te organiseren als het er niet is. Want anders kun je geen passend beleid maken. Een ministerie moet actief het beroepenveld gaan raadplegen en gesprekken voeren met mensen uit de verschillende kennisgebieden om goed beleid te kunnen maken.’
Tot slot de laatste vraag: in het boek Algoritmes aan de macht stelt auteur Hannah Fry de vraag: verdienen de autonome systemen die er nu al zijn en die zelfstandig beslissen, ons vertrouwen?
Van Steenbergen: ‘Klakkeloos vertrouwen is niet handig. Je laat je dan regeren door regels die iemand ooit heeft bedacht en misschien niet meer werken. Je moet kritisch blijven.’ Leijnen: ‘Er zijn twee vormen van vertrouwen. Enerzijds het vertrouwen dat in de loop van de tijd groeit op basis van ervaring en kennis van systemen en de personen en organisaties die daarachter schuilgaan, en anderzijds het blinde vertrouwen waar je voor kiest als je geen alternatief ziet. De vraag is hoe we tot dat eerste soort vertrouwen komen, om dat tweede te voorkomen.’