In het vizier van het Rotterdamse bijstandsfraude-algoritme?

Rotterdam gebruikt een algoritme om bijstandsfraude te voorspellen en kende jarenlang risicoscores toe op basis van bijvoorbeeld geslacht, woonwijk, taal en zelfs indicaties van psychische en financiële problemen. Hoewel er volgens de gemeente geen sprake is van oververtegenwoordiging van mannen, vrouwen of bepaalde wijken, blijkt uit cijfers dat daar nog wel vragen over zijn te stellen.
De Rekenkamer Rotterdam waarschuwde dit jaar dat het algoritme waarmee de gemeente Rotterdam bijstandsfraudeurs opspoort, mogelijk oneerlijk is. Met ethische risico’s was bij de ontwikkeling nauwelijks rekening gehouden en voor burgers was het niet mogelijk om te achterhalen hoe het algoritme werkte en of het een rol had gespeeld bij hun onderzoek naar de rechtmatigheid van een bijstandsuitkering. Ook was er volgens de rekenkamer kans op vooringenomenheid doordat bijvoorbeeld iemands Nederlandse taalvaardigheid meetelde in zijn of haar risicoscore.
Het algoritme berekent de risicoscore door de gegevens van bijstandsfraudeurs uit het verleden te vergelijken met de gegevens van mensen met een lopende bijstandsuitkering. Hoe meer iemands profiel op dat van een fraudeur lijkt, hoe hoe hoger de score. De bijstandsontvangers met de hoogste risicoscores krijgen een hercontrole. Dat is geen formaliteit: binnen twee weken nadat een bijstandsgerechtigde is uitgenodigd moet hij of zij alle papieren laten zien, zoals huurcontracten en rekeningafschriften.

‘Burger heeft recht op transparantie over algoritme'
De gemeente Rotterdam gebruikt een algoritme om bijstandsfraude te voorspellen. Hierin wogen kenmerken als geslacht, wijk, taal en zelfs indicaties van psychische en financiële problemen mee voor een risicoscore. Inmiddels past Rotterdam het model aan en is de gemeente open over de werking. Argos vroeg verantwoordelijk wethouder Richard Moti (Werk en Inkomen) naar zijn overwegingen.
Taal, wijk en psychische problemen
Uit informatie die aan de gemeenteraad is verstrekt en documenten die de gemeente heeft vrijgegeven na een Wob-verzoek van Argos en Lighthouse Reports blijkt dat het algoritme tot dit jaar meer dan driehonderd variabelen meewoog voor de risicoscore. Het gaat om gegevens die de gemeente registreert in het kader van de bijstand. De belangrijkste was leeftijd. In de top-100 van indicatoren in 2020 die het sterkst voorspellen of iemand fraudeert staan verder indicatoren als geslacht (vrouw), de buurt Groot-IJsselmonde en de wijk Feijenoord, iemands spreektaal, of iemand heeft moeten voldoen aan een taaleis en of er belemmeringen zijn geweest in het participatietraject door financiële, psychische of lichamelijke problemen. Ook de samenlevingsvorm van een bijstandsgerechtigde, het aantal kinderen en het leeftijdsverschil tussen ouder en het oudste kind tellen zwaar mee voor de risicoscore. Dat geldt eveneens voor de aard en het verloop van de contacten met de gemeente. Zo weegt mee of er contact is geweest per e-mail of per telefoon en zelfs het aantal woorden dat is genoteerd bij een afspraak.
Aanpassingen
De gemeente Rotterdam heeft na de aanbevelingen van de rekenkamer en debatten in de gemeenteraad aanpassingen gedaan. Niet alleen is er openheid gekomen over de werking, er is inmiddels ook een flink aantal variabelen uit het algoritme gehaald. Voorbeelden zijn indicatoren over taal, geslacht, medische en psychische klachten. Maar de wijk waar iemand woont, weegt nog steeds mee. De gemeente zelf stelt dat geen sprake is geweest van discriminatie of oververtegenwoordiging van bepaalde groepen.
Meer vrouwen dan mannen
In hoeverre het algoritme tot oneerlijke resultaten heeft geleid is niet eenvoudig onafhankelijk vast te stellen. Daarvoor is uitgebreid statistisch onderzoek nodig. De gemeente heeft wel cijfers verstrekt die iets kunnen zeggen over mogelijke over- of onder vertegenwoordiging van bepaalde wijken en mannen of vrouwen. Daaruit blijkt dat in de periode 2018-2020 933 mannen werden gecontroleerd nadat zij door het algoritme waren aangewezen, tegenover liefst 2.179 vrouwen. De gemeente verklaart dit als volgt: ‘In het verleden zijn in de heronderzoeken op basis van thema’s (dus niet op basis van het risico-inschattingsmodel) juist relatief veel mannen onderzocht. Het gevolg daarvan is dat de reeds onderzochte mannelijke uitkeringsgerechtigden worden uitgefilterd uit de selectie die op basis van het risico-inschattingsmodel wordt gemaakt.’
Wijken
Voor de wijken geldt dat het aantal controles op basis van het algoritme in de periode 2018-2020 flink uiteenloopt. Volgens de gemeente heeft dit ‘te maken heeft met verscheidene factoren die meespelen. De belangrijkste factor is dat in sommige wijken relatief meer uitkeringsgerechtigden woonachtig zijn.’
Datajournalist Reinier Tromp van Argos heeft ter controle het jaarlijkse aantal hercontroles per wijk op basis van het algoritme afgezet tegen het totaal aantal bijstandsuitkeringen per wijk. Het blijkt dat in sommige wijken meer of juist minder controles zijn geweest, dan je op basis van het totaal aantal bijstandsuitkeringen zou verwachten. Zo is in IJsselmonde en Hoogvliet het aantal controles relatief hoog. In Rotterdam Centrum is het juist laag.
Argos heeft ook gevraagd naar cijfers over tweede nationaliteit of geboorteland, maar dit is volgens de gemeente niet bijgehouden.
bekijk ook

In het vizier van het algoritme
De overheid gebruikt algoritmes om te voorspellen of iemand misschien fraudeert. Dat dit mis kan gaan weten we inmiddels van de Toeslagenaffaire: er bleek sprake van discriminatie van mensen met een tweede nationaliteit en vooral mensen met lage inkomens werden op de korrel genomen.

De datahonger van politieke partijen
Wat kan er en wat gebeurt er op het gebied van microtargeting in Nederland en moet alles wel mogen wat kan?