De rol van algoritmes bij de toeslagenaffaire

De toeslagenaffaire, die leidde tot grote (financiële) problemen bij slachtoffers en de val van het kabinet-Rutte III, kwam voort uit algoritmes. Is er teveel vertrouwd op een techniek die wel degelijk fouten kan maken? En hoe voorkomen we dat het in de toekomst mis gaat? We spraken er over met verschillende experts.

Als we Wikipedia erbij pakken voor de definitie van een algoritme, dan vertelt de encyclopedie ons: ‘Een algoritme is een recept om een wiskundig of informaticaprobleem op te lossen. Wiskundig geformuleerd is het een eindige reeks instructies die vanuit een gegeven begintoestand naar een beoogd doel leidt.’

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam weet het net even helderder uit te leggen: “Een algoritme is simpel gezegd een stappenplan. Hoewel je ook een recept al een algoritme kunt noemen, wordt het woord voornamelijk gebruikt voor stappenplannen voor het uitvoeren van wiskundige berekeningen.”

Wiskundige Hannah Fry noemt in haar boek ‘Algoritmes aan de macht’ vier functies van algoritmes: prioriteren, classificeren, associëren en filteren. Hoefsloot vult dit graag aan met een vijfde functie: identificeren. Hierbij noemt ze het praktijkvoorbeeld van gezichtsherkenning om je smartphone te ontgrendelen, waar bewegend beeldmateriaal vergeleken wordt met een opgeslagen plaatje van jouw gezicht, met het doel om je identiteit vast te stellen.

Marit Hoefsloot, master student Philosophy of Science, Technology and Society bij UTwente en werkzaam bij het Future Lab Waag in Amsterdam.

Algoritmes komen natuurlijk veelvuldig voor in de digitale wereld en zitten ingebakken in de meest basale functies die we gebruiken. Hoefsloot geeft hierbij het voorbeeld van de zoekfunctie in pdf-documenten (classificeren): “Ik kan mijn leven nauwelijks voorstellen zonder zoekfuncties!”

De bekendste voorbeelden van manieren waarop we in aanraking komen met algoritmes in de digitale wereld, zijn de algoritmes van Facebook en Google. Het sociale netwerk gebruikt deze om een tijdlijn samen te stellen met inhoud die je maximaal prikkelt. Googles algoritmes bepalen (prioriteren) de zoekresultaten die op jou afgestemd zijn en YouTube-videosuggesties die jou moeten verleiden.

Deze algoritmes lijken een vrij onschuldig middel om een commercieel doel te verwezenlijken: jouw aandacht vasthouden om meer advertentie-inkomsten te werven en nóg meer data te verzamelen om de algoritmeformules te voeden. Toch kunnen de algoritmes minder onschuldige gevolgen hebben en zelfs samenleving ontwrichtende gevolgen hebben.

Wiskundige discriminatie

Om een goed voorbeeld te noemen van de ingrijpende gevolgen waar zwaar leunen op algoritmes toe kunnen leiden, hoeven we niet alleen naar techgiganten te kijken. Zie de toeslagenaffaire. Mensen werden hierbij onterecht gekort op hun toeslagen. 

De wiskundige formule waarmee het algoritme werd bepaald, woog verschillende factoren mee. Dubbele nationaliteit? Een specifieke etnische achtergrond? Het werd allemaal als risicofactor aangemerkt voor mogelijke fraude in het algoritme. Waren er te veel risicofactoren aangevinkt? Dan werden op basis daarvan mensen (vaak onterecht) gekort. Met alle gevolgen van dien.

Hoewel algoritmes niet de enige misstand waren die tot de toeslagenaffaire leidden, stelde Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP): “Het hele systeem was op een discriminerende manier ingericht en werd ook als zodanig gebruikt.”

Het algoritme werd hierbij aangewend om statistieken tot vooroordelen om te toveren. Als een soort cijfermatige onderbouwing om onrecht toe te passen. Zo benoemde de AP het voorbeeld dat Nederlanders met een dubbele nationaliteit tot eind 2018 strenger gecontroleerd werden als ze kinderopvangtoeslag aanvroegen dan andere Nederlanders. 

Die dubbele nationaliteit was een van de waarden waar het geautomatiseerde algoritme op aansloeg en bepaalde dat er extra controle nodig was. Volgens de AP was er hierdoor sprake van discriminatie op basis van nationaliteit.

Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens (AP).

Bij de toeslagenaffaire werd pijnlijk duidelijk dat de uitkomst van het stappenplan die we als algoritme bestempelen niet altijd een eerlijk resultaat is. Hoefsloot: “algoritmes zijn per definitie gebouwd op historische data, dus het is niet makkelijk om dit soort problemen te omzeilen.”

In deze kwestie lijkt het dus alsof algoritmes gebruikt zijn om onze vooroordelen te bevestigen. “Wat een optie zou zijn”, vervolgt Hoefsloot, “is het erkennen dat algoritmes dit soort vooroordelen kunnen hebben en dus niet per definitie ‘neutraal’ zijn. De resultaten uit de algoritmes moeten worden gezien als kansen en aanbevelingen en niet als de waarheid of als de enige optie. We moeten kritisch blijven op die aanbevelingen en die aanbevelingen ook leren negeren." 

"De mensen die werken met dit soort algoritmes moeten onderwezen worden in de werking ervan en in het feit dat de resultaten enkel kansen en aanbevelingen zijn, en dat die aanbevelingen ook fout kunnen zijn. De beslissende kracht komt dan weer bij de mens te liggen en niet bij het algoritme. Het algoritme wordt enkel gebruikt om complexe berekeningen uit te voeren.”

Gebrek aan menselijke interventie

Hoefsloot vermoedt dat de negatieve bijdrage van algoritmes aan de toeslagenaffaire verklaard kan worden door blind vertrouwen: “Vermoedelijk hebben algoritmes een negatieve bijdrage geleverd aan de toeslagenaffaire omdat er wordt aangenomen dat algoritmes geen fouten kunnen maken. Maar het is en blijft belangrijk om kritisch te blijven op de uitkomsten van de algoritmes en die dubbel te checken." 

"Een persoon moet verantwoordelijk zijn voor de uitvoering van het algoritme en moet in staat zijn om de werking en de uitkomsten van het algoritme te auditen. Het algoritme mag niet als de enige bron van waarheid worden gebruikt. Alleen op deze manier kunnen met algoritmes tijdsintensieve taken nog steeds goed geautomatiseerd worden, maar wordt de beslissende kracht weggenomen.”

Het schrijnende bij de toeslagenaffaire lijkt dat de algoritmes hun vooraf bepaalde werk naar behoren uitvoerde, maar menselijke interventie ontbrak. Ook dit is een patroon dat we bij de algoritmes maar al te vaak terugzien. Als het algoritme van Facebook of Instagram de plank misslaat en je ongepaste posts laat zien, dan gaan meldingen daarover vrijwel altijd door een geautomatiseerd proces. Er komt zeer zelden een menselijk oordeel aan te pas.

YouTube, waarbij de algoritmes je al snel op een spoor van misinformatie en complottheorieën zetten omdat mensen statistisch gezien hier sneller voor kiezen en langer blijven kijken, maakt het je ook onmogelijk een mens op de hoogte te brengen van misstanden. Wanneer een video veel dislikes krijgt, wordt hij minder snel getoond in de aanbevolen video’s of minder vaak automatisch afgespeeld. Wordt een video gerapporteerd als misleidend of op een andere manier ongepast, dan is het in de meeste gevallen ook een wiskundige formule die bepaalt wanneer een video op zwart gezet wordt.

Waarom er zo weinig mensenwerk aan te pas komt, laat zich raden. Geautomatiseerde processen zijn, vooral in een digitale wereld enorm efficiënt. Techreuzen als Google en Facebook moeten hun aandeelhouders tevreden houden. Het aanstellen van veel mankracht om inhoud te controleren, of tijdlijnen en zoekresultaten zonder algoritmes uit te voeren, doen de beurskoersen geen goed.

Daarbij is het ook belangrijk om in het achterhoofd te houden dat het advertentiebedrijven zijn. De algoritmes zorgen ervoor dat onze aandacht zo vaak mogelijk wordt getrokken en zo lang mogelijk wordt vastgehouden door advertenties en overige inhoud optimaal te personaliseren. De samenstelling van de content en het welzijn van de kijkers is daarbij van ondergeschikt belang.

Neutrale algoritmes

Hoewel we algoritmes omschrijven als een stappenplan, wiskundig of een formule, bestrijdt Hoefsloot dat het iets neutraals is. “Er kunnen waarden (goed of slecht) in algoritmes gebouwd worden. Wel is het belangrijk om te onthouden dat die waarden ook een essentieel deel zijn van de algoritmes. Je kunt geen stappenplan maken zonder beslissingen te maken over welke stappen goed en welke stappen fout zijn. Die beslissingen zijn gebaseerd op waarden.”

Hoefsloot: “Algoritmes kunnen op verschillende manieren bevooroordeeld zijn. Een voorbeeld daarvan is de training data bias. Algoritmes worden getraind op training data. Als die training data geen representatieve afspiegeling zijn van de maatschappij, dan kan het algoritme bijvoorbeeld beter worden in het herkennen van mensen met een bepaalde huidskleur."

"In het geval van de gezichtsherkenning zijn die algoritmes bijvoorbeeld getraind met foto’s van voornamelijk witte mannen en in iets mindere mate witte vrouwen. Vandaar dat het algoritme beter is in het herkennen van witte mannen, en veel minder goed in het herkennen van mensen met een andere huidskleur of geslacht.”

Dus: Algoritmes zouden alleen een neutrale en eerlijke rol kunnen spelen als ze slechts ingezet worden voor complexe berekeningen, waarbij het eindresultaat gebruikt wordt als advies en niet als beslissing.

De enige manier om onder de dubieuze algoritmes van Facebook, Instagram en YouTube uit te komen is door de diensten links te laten liggen. Onder een overheid uitkomen die algoritmes oneerlijk toepast? Dat is misschien wel een nóg onrealistischere uitdaging.

De verantwoordelijkheid ligt bij de programmeurs en eigenaren (bedrijven en overheden) achter de algoritmes. Als mensen eindverantwoordelijk worden gemaakt voor de uitkomst van de stappenplannen en algoritmes worden getraind op een representatieve afspiegeling van de maatschappij, kunnen eerste stappen gezet worden.

Hoefsloot vult concluderend aan: “Daarnaast is het belangrijk dat de subjecten van de algoritmes zich ervan bewust zijn dat er een beslissing over hen wordt genomen op basis van een algoritme en moeten die beslissingen uitgelegd kunnen worden. De subjecten moeten het systeem kunnen aanvechten, net als bij een menselijke beslissing.”

Meer over algoritmes

Wil je meer te weten komen over hoe algoritmes ons leven beïnvloeden? Netflix biedt de documentaire ‘Coded Bias’ aan, die naast het blootleggen van gebreken in gezichtsherkenning op basis van huidskleur en ras, meer misstanden aan de kaak stelt. De serie Black Mirror (aflevering ‘Nosedive’) laat zien hoe een sociaal kredietsysteem in de Westerse wereld er uit kan zien. 

Het boek Algoritmes aan de macht (Hannah Fry) legt de uitdagingen van een geautomatiseerd bestaan bloot. Tevens raadt Hoefsloot de boeken ‘Weapons of Math Destruction’ van Cathy O’ Neil en ‘Het internet is stuk’ van Marleen Stikker (internetpionier en tevens oprichter van Waag) aan.

Geschreven door: Joris Peterse op

Category: Nieuws, Algemeen

Tags: ai, algoritme