protest usa
Victoria Pickering BY-NC-SA
for open, fair and inclusive technology

Gekleurde technologie: slechte buurt of slechte data?

Technologie is niet neutraal. Het is een reflectie van cultuur en politieke overtuiging. Net als in andere vertalingen van macht, liggen in technologie vooroordelen, ongelijkheden en racisme ingebakken. In deze serie over institutioneel racisme duiken we in de materie om de onderste steen boven te halen. We laten aan de hand van concrete voorbeelden zien dat technologie niet neutraal is én gaan op zoek naar oplossingen.

Als je een huis gaat kopen, ben je natuurlijk benieuwd naar je nieuwe buurt. Hoe leefbaar een buurt is, kun je ontdekken met behulp van de Leefbaarometer. Op basis van gegevens van het Centraal Bureau voor de Statistiek, geeft de Leefbaarometer aan of een buurt prettig (groen) of onprettig (rood) is om te wonen. Op het eerste gezicht een onschuldige datatoepassing, maar hoe wordt de leefbaarheid van een wijk eigenlijk bepaald? En hoe neutraal is deze indeling?

Iemand die al jaren onderzoek doet naar vooroordelen in technologie en datatoepassingen is PhD’er Gerwin van Schie. Aan de Universiteit Utrecht onderzoekt hij de manier waarop de overheid gegevens verzamelt en toepast over de etniciteit van burgers, zoals in de Leefbaarometer.   

Dataverzameling

Elke datatoepassing begint met het verzamelen van gegevens. In Nederland verzamelt de overheid informatie over, onder andere, de achtergrond van burgers. Het bijhouden van gegevens over etniciteit is in Nederland verboden, maar je nationaliteit(en), je geboorteplaats én de geboorteplaats van je ouders worden opgeslagen in de Gemeentelijke Basis Administratie, het GBA. ‘Met behulp van die gegevens bepaalt de overheid in Nederland tot welke groep je behoort,’ legt Van Schie uit. Dat is echter niet overal zo. ‘In Amerika vullen mensen zelf hun identiteitsgegevens in. Dat leidt ook weleens tot problemen, als mensen zich totaal anders voordoen dan ze zijn. Amerikaanse burgers hebben echter op die manier wél meer zeggenschap over hoe zij zich identificeren. Dat hebben wij in Nederland niet.’

De verzamelde gegevens worden door het Centraal Bureau voor de Statistiek (CBS) gecategoriseerd en gebruikt om statistieken te creëren over de samenleving. Tot 2016 werden mensen bijvoorbeeld gekenmerkt als autochtoon of allochtoon. Sinds kort is deze terminologie veranderd naar ‘Nederlander met een migratieachtergrond’. De functie van de categorisering blijft echter hetzelfde: er wordt onderscheid gemaakt als jij of één van je ouders buiten Nederland geboren is.

Van Schie legt uit dat er daarnaast door het CBS onderscheid wordt gemaakt tussen een Westerse en niet-Westerse achtergrond. Deze indeling is typerend is voor Nederland; in andere landen bestaat deze categorisering niet. ‘Westers duidt op mensen uit Europa (met uitzondering van Turkije), Noord-Amerika, Oceanië, Japan en Indonesië. Mensen uit Turkije, Afrika, Latijns-Amerika, Azië (exclusief Japan), Suriname, de Nederlandse Antillen en Aruba worden als niet-westers beschouwd. Die categorisering heeft dus weinig te maken met geografie. Dat geeft aan dat andere factoren zoals ras en etniciteit een rol spelen.’ Zoals de Wetenschappelijke Raad voor Regeringsbeleid al in 2016 schreef, is het ‘niet de geografische ligging van het herkomstland, maar de overwegend ‘blanke’ kenmerken van de migranten’ die uiteindelijk de doorslag geeft.

’De categorisering Westers versus niet-Westers heeft weinig te maken met geografie’

Toch wordt deze data ook in 2020 nog door het CBS in de kunstmatige categorieën Westers en niet-Westers geclassificeerd en op die manier gebruikt. De data van het CBS over de samenstelling van de samenleving is openbaar en beschikbaar via een application programming interface (API). Omdat de data over groepen gaat en ingedeeld zijn per postcode, zijn de privacywetten ter bescherming van persoonsgegevens hier niet van toepassing. En dus kunnen zowel de overheid als externe instanties zoals de politie en de belastingdienst de data gebruiken voor eigen toepassingen.

Leefbaarometer

Een voorbeeld is de Leefbaarometer, een applicatie van het Ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Volgens het ministerie kan met behulp van de Leefbaarometer, de leefbaarheid in alle bewoonde wijken in Nederland gemonitord worden. ‘Op basis van honderd (voornamelijk) objectieve indicatoren (kenmerken van de woonomgeving) een inschatting geeft van de leefbaarheidssituatie en –ontwikkeling,’ aldus de website.

Deze vermeende objectiviteit van zowel de data als de toepassing is problematisch.

‘In de Leefbaarometer worden allerlei gegevens meegenomen om de leefbaarheid van een wijk te bepalen, waaronder nationaliteit en immigratieachtergrond. Alle nationaliteiten anders dan Nederlands, hebben volgens het systeem een negatieve invloed op de leefbaarheid,’ licht Van Schie toe. ‘Op die manier impliceert het systeem dat de aanwezigheid van mensen met een migratieachtergrond de leefbaarheid van een wijk vermindert. Dat kan een individuele mening zijn, maar het is vreemd om dat als overheid als feitelijk te presenteren.’

Screenshot van de Leefbaarometer in Rotterdam
Screenshot van de Leefbaarometer in Rotterdam

‘Als je een systeem ontwerpt, zoals de Leefbaarometer, zitten daar altijd bepaalde culturele en politieke waarden in verwerkt. Die waarden moet je communiceren met de gebruiker, en dat gebeurt hier niet. Het toevoegen van gegevens over nationaliteit of geboorteplaats is een politieke keuze. Er is geen vragenlijstje aan het begin die vraagt waar de gebruiker zélf behoefte aan heeft in een wijk. Als je mensen publiekelijk zou vragen of ze liever meer of minder mensen met een migratieachtergrond in hun wijk hebben, dan hebben de meeste mensen wel door dat die vraag racistisch is. Als we het echter als standaard inbouwen, zoals in de Leefbaarometer is gebeurd, dan heeft niemand het door en lijkt het neutraal.’

‘Als je een systeem ontwerpt, zitten daar altijd bepaalde culturele en politieke waarden in verwerkt.’

Predictive policing

Het gebruik van deze data en technologie genereert niet alleen suggestieve en racistische resultaten, maar het systeem is ook productief. Dat betekent dat het gebruik van dit soort systemen actief bijdraagt aan discriminatie en dat het racistische denkbeelden produceert.

Een duidelijk voorbeeld hiervan is het Criminaliteits Anticipatie Systeem (CAS), een systeem dat sinds 2017 door de landelijke politie wordt gebruikt voor predictive policing. Predictive policing omvat het gebruik van data om op basis van statistische kansberekeningen voorspellingen te doen over toekomstige criminaliteit. In het CAS worden de gegevens van het socio-economische en demografische gegevens van het CBS gecombineerd met de criminaliteitscijfers van de politie. Daarmee kan bepaald worden in welke gebieden het risico op criminaliteit het hoogst is, en waar extra moet worden gesurveilleerd.

Zeker tot 2016 heeft de indicator ‘niet-Westerse achtergrond’ een rol gehad in het CAS. Ook op dit moment maken nationaliteit en geboorteplaats nog steeds deel uit van de data waarop het CAS is gebaseerd. ‘Er wordt vaak gezegd dat etnisch profileren per ongeluk gaat,’ aldus Van Schie. ‘Dit systeem is echter ontworpen om te discrimineren. Op het moment dat je gegevens als nationaliteit en geboorteplaats daarin verwerkt, ga je er bewust mee akkoord dat je op basis van etniciteit discrimineert.’

Vervolgens wordt er in bepaalde buurten, waar mensen met een specifieke achtergrond wonen, vaker gesurveilleerd. En op die manier produceert het CAS een eigen realiteit, waarin mensen met een immigratieachtergrond vaker worden opgepakt. Deze data wordt vervolgens weer aan het systeem gevoerd, en op die manier versterkt het zichzelf. Dat er op bepaalde locaties meer gesurveilleerd wordt, betekent ook dat er op andere locaties minder gesurveilleerd wordt. ‘Overal waar een groep op een negatieve manier gediscrimineerd wordt, heeft er ook weer een hele grote groep voordeel van, omdat zij minder snel gepakt worden.’

Screenshot van het CAS in Amsterdam
Screenshot van het CAS in Amsterdam

Hoe lossen we dit op?

Van Schie geeft aan dat het grootste probleem is dat de overheid deze data infrastructuur via het CBS faciliteert. Daarnaast is er een onrealistisch groot geloof in de kracht van technologie om maatschappelijke problemen op te lossen. ‘Maatschappelijke en sociale problemen worden omgebouwd tot een technisch probleem. De mensen die dit soort applicaties bouwen hebben echter niet door dat ze op die manier eigenlijk politiek bedrijven.’ Veranderlijke politieke standpunten kunnen op die manier vervlochten raken in technologische toepassingen, die we jaren later nog steeds gebruiken.

Het heersende idee dat data altijd neutraal is, en dat we op een neutrale manier over etniciteit kunnen praten, zal moeten veranderen. De categorieën waarin het CBS burgers indeelt zijn immers verre van neutraal. Gloria Wekker noemt dit witte onschuld, waarmee ze refereert aan de dominante idee dat wij als Nederlanders kleurenblind en rechtvaardig zijn. We zijn ervan overtuigd dat we termen als etniciteit op een neutrale manier kunnen benaderen en verwerken. Het tegendeel is echter waar. ‘Verweven met categorieën rondom etniciteit is altijd het doel dat je ermee hebt,’ legt Van Schie uit. ‘Waarom ben je van mening dat deze categorisering relevant is? We hebben het hier over Nederlanders waarvan de immigratieachtergrond misschien wel drie generaties geleden is. De vraag is of dat relevant is, of dat je het zelf relevant maakt door er onderscheid in te maken, data over te verzamelen en dit soort applicaties te gebruiken.’

Symboolpolitiek, zoals het veranderen van de terminologie van allochtoon naar Nederlander met een migratieachtergrond, is niet genoeg. ‘Alleen het woord is veranderd, maar niet de functie van de categorie. Die manier van denken zit nog steeds verwerkt in de infrastructuur van de overheid en dat is institutioneel racisme.’ In plaats daarvan zou doelbinding centraal moeten staan. ‘Afhankelijk van het doel dat je hebt, moet je beslissingen maken over welke categorieën en gegevens je daarvoor nodig hebt. Wat mij betreft is het enkel legitiem om een groep als groep te identificeren als die groep daar zelf voordeel bij heeft, bijvoorbeeld omdat je die groep gericht wilt ondersteunen.'

Metadata