Een ethisch verantwoord algoritme bij de opsporing van fraude in de bijstand is onmogelijk
In februari hebben vertegenwoordigers van de Bijstandsbond gesproken met Gabriel Geiger, een journaliste van Ligthhouse Reports. Zij was helemaal vanuit Los Angeles naar Amsterdam gekomen om onderzoek te doen naar de “slimme check” die de gemeente Amsterdam wilde invoeren bij potentiële fraudeurs onder bijstandsgerechtigden die een uitkering aanvragen. Van het gesprek heb ik een verslag gemaakt. Ze werkte samen met journalisten van Trouw om enkele artikelen te schrijven, die nu zijn gepubliceerd. Verder verschenen er Engelstalige artikelen bij Ligthouse Reports en bij het tijdschrift MIT Technological Review.
De “slimme check” was een algoritme dat bij bijstandsaanvragen werd toegepast, waarbij vijftien kenmerken van een aanvrager in de computer werden ingevoerd. Het algoritme moest dan bepalen of er een vergroot risico zou zijn op fraude. Zo ja, dan moet er in die gevallen een uitgebreider onderzoek plaatsvinden. De gemeente Amsterdam heeft besloten om die “slimme check” voorlopig niet in te voeren, omdat er teveel fouten in het systeem zitten. Lighthouse Reports was geïnteresseerd in de “slimme check”, omdat ze aan het onderzoeken zijn of die algoritmen sowieso wel geschikt zijn om in te voeren bij het opsporen van fraude in de bijstand. Is er eigenlijk wel een systeem mogelijk waarin geen fouten zitten? Daarvoor hebben ze ook het algoritme onderzocht dat in Rotterdam functioneerde, en dat naar zeggen van de journaliste nog veel slechter was dan het Amsterdamse. Het Rotterdamse systeem discrimineerde onder andere eenoudergezinnen.
Hoe werkt het algoritme?
Nu wordt dus bekend hoe het algoritme werkt na onderzoek van Lighthouse Reports. En wat blijkt uit de conclusies die de gemeente Amsterdam, in het bijzonder de wethouder Rutger Groot Wassink, ook al eerder hadden getrokken? Een algoritme bouwen om fraude op te sporen is niet te ontwikkelen zonder een bias, dat wil zeggen zonder dat bepaalde groepen sterker als mogelijke fraudeurs naar voren komen dan andere. Een “ethisch verantwoord” selectiesysteem met algoritmen in de sociale zekerheid is niet mogelijk. Eerst was er in het Amsterdamse experiment sprake van dat migranten onevenredig veel werden gecontroleerd. Toen men “nationaliteit” uit de variabelen haalde, bleken mensen met de Nederlandse nationaliteit en vrouwen onevenredig veel uit het systeem te komen als mogelijke fraudeurs.
Wat overigens ook werd gevonden, is dat er in de handmatige afhandeling van de bijstandsaanvragen eveneens een bias zit, namelijk dat bepaalde bevolkingsgroepen verhoudingsgewijs vaker voor nader onderzoek naar handhaving worden gestuurd dan andere groepen. De gemeente probeert nu bij een nieuw experiment, waarbij at random steekproeven worden gedaan, die bias te voorkomen. Algoritmen zijn dus blijkens het uitgebreide onderzoek van Lighthouse Reports niet geschikt om fraude op te sporen en een selectie te maken van wie wel of niet ergens voor in aanmerking komt.
(Dit artikel verscheen eerder op de site van de Bijstandsbond.)
Piet van der Lende
Berichtnavigatie
Reacties (0)
Voeg nieuwe reactie toe
Wij tolereren geen: racisme, seksisme, transfobie, antisemitisme, ableisme enz.