Gekleurde technologie: aannames over lichamen

Technologie is niet neutraal. Het is een reflectie van cultuur en politieke overtuiging. Net als in andere vertalingen van macht, liggen in technologie vooroordelen, ongelijkheden en racisme ingebakken. In deze serie over institutioneel racisme duiken we in de materie om de onderste steen boven te halen. We laten aan de hand van concrete voorbeelden zien dat technologie niet neutraal is én gaan op zoek naar oplossingen.

Wat voor aannames over lichamen herkennen we in het ontwerp van technologieën? Tijdens een Wit Huiswerk-sessie gingen tien Waag-werknemers met elkaar in discussie over de interactie tussen technologie en lichamen. Wij zijn nieuwsgierig welke aannames we gebruiken in ons werk. De discussie bracht veel interessante onderwerpen naar boven en maakte onbewuste veronderstellingen expliciet. Deze blog is een verzameling van de belangrijkste lessen die getrokken zijn.  

Groot scherm, kleine handen
Technologie wordt gemaakt met bepaalde lichamen in gedachten. Neem de smartphone: er wordt verondersteld dat de gebruikers van smartphones vingers hebben om de telefoon te bedienen. Daarnaast zijn de meeste telefoons zo groot dat mensen met kleine handen moeite hebben om hun telefoon vast te houden en tegelijkertijd met hun duim alle hoekjes van het scherm te bedienen. 

Unsplash

Wie kleine handen heeft, kan moeite hebben met de standaard grootte van smartphones. Foto: Unsplash

Of denk aan gezichtsherkenning. Als een algoritme alleen datasets van witte mensen als input heeft gekregen, dan herkent het algoritme vaak geen gezichten van mensen van kleur. Gemarginaliseerde lichamen worden vaak letterlijk niet gezien door technologieën die lichamen en menselijke karakteristieken analyseren. Kortom, veel apparaten zijn ingebed met ideeën over hoe een 'standaard' lichaam eruitziet of eruit zou moeten zien. 

Ontwerpprocessen beginnen bij de ontwerpers zelf 
Vaak bedenken productontwerpers vanuit hun eigen ervaringen nieuwe technologieën. Ze denken bijvoorbeeld dat iedereen het fijn vindt om een groot telefoonscherm te hebben, of dat iedereen grote handen heeft. Het kan ook dat de nieuwe producten enkel getest worden door een kleine, homogene groep mensen. Als de webcam met gezichtsherkenning getest zou zijn door mensen van alle huidskleuren, zou het product beter in staat zijn om de gebruikers te herkennen.

Ook binnen Waag worden er technologieën ontworpen met bepaalde aannames over lichamen in gedachten. Onze ontwerpprocessen beginnen meestal bij de ontwerpers zelf, die hun eigen ervaringen gebruiken om nieuwe producten te ontwerpen. Bovendien testen ze dan zelf de prototypes uit, en aangezien de meeste van onze huidige werknemers geen fysieke beperkingen hebben, worden die ervaringen helaas ondergerepresenteerd. 

Waag workshop

Deelnemers van een workshop Algorithm responsibility mapping bij Waag

Dit is natuurlijk afhankelijk per project, aangezien sommige Waag-projecten hun specifieke doelgroepen zo veel mogelijk betrekken. Maar ook de groepen mensen die betrokken worden bij de projecten zijn helaas vaak klein en weinig divers. Denk bijvoorbeeld aan het project Visibly smarter. Hiervoor heeft Waag samengewerkt met één basisschool in Amsterdam, wat wellicht geen representatieve afspiegeling van de maatschappij geeft.

Hoe kunnen we daar verandering in brengen? Hoe kunnen we toegankelijke hardware ontwikkelen? En hoe zorgen we ervoor dat een grotere, meer diverse groep mensen meedoet met co-creatiesessies? Dit zijn slechts enkele kwesties waar Waag de komende tijd mee aan de slag gaat. 

Klankbordgroepen, taalgebruik en gemarginaliseerde perspectieven
Het doel is om op een inclusievere manier te werken en ontwerpen. Hierbij is het natuurlijk niet de bedoeling dat een ontwerper zelf in een rolstoel gaat zitten om zo meer verschillende ervaringen mee te nemen in hun eigen ontwerpproces. Integendeel; we willen juist meer verschillende authentieke ervaringen meenemen, bijvoorbeeld door vaker met klankbordgroepen te werken. Het is daarbij de uitdaging om deze doelstellingen met beperkte tijd, middelen en mankracht aan te pakken. 

Een mogelijke oplossing is om meer externe partners aan te schrijven die in andere cirkels bewegen dan ons Waag-hoekje van de maatschappij. We kunnen ook letten op inclusief beeld- en taalgebruik, het programmeren van een minder homogeen sprekerspubliek en het aannemen van personeel die blinde vlekken in het ontwerpproces wegneemt. Dit zou Waag’s slagkracht zeker uitbreiden.

Katta Spiel

Onderzoeker Katta Spiel (TU Wien) geeft praktische handvatten om participatief onderzoek inclusiever te maken

Katta Spiel is een onderzoeker van de TU Wien die gemarginaliseerde perspectieven gebruikt om kritisch design en technologie te verbeteren. In een verhelderende filmpje geeft Katta meerdere praktische handvatten om participatief onderzoek inclusiever te maken. De eerste aanbeveling is om meervouden te gebruiken: in plaats van spreken over “het lichaam”, kunnen we “de lichamen” zeggen. Als we het hebben over “het lichaam”, dan stellen we ons meteen een abstract beeld van een typisch jonge, gezonde, niet-gehandicapte, witte man voor. Maar op het moment dat we spreken over “de lichamen”, wordt het mogelijk dat er verschillende soorten lichamen zijn die we in gedachten moeten houden. 
    
Privileges? Check!
Het is ook belangrijk om onze privileges te controleren. Bijvoorbeeld door dit soort gesprekken aan te gaan en kritisch naar onze eigen ervaringen te kijken. Er is een grote hoeveelheid leermaterialen beschikbaar die hierbij kunnen helpen, bijvoorbeeld de website Wit Huiswerk waarnaar onze sessies zijn vernoemd. Het is essentieel dat we niet alleen naar onze goede intenties of bedoelingen kijken, maar dat alleen de echte daden en consequenties meetellen. 

waag

Een ander praktisch voorbeeld is om in virtuele vergaderingen je persoonlijke voornaamwoorden achter je gebruikersnaam te zetten. Dit verlaagt de drempel voor anderen om hun voornaamwoorden te delen en helpt om het idee dat uiterlijk en gender altijd hand in hand gaan te verbreken. Bovendien kunnen zulke kleine gebaren ervoor zorgen dat iemand die vaak voor het verkeerde gender aangezien wordt, zich meer op diens gemak zal voelen. We moeten ons ervan bewust zijn (en blijven) dat wij en ons werk niet perfect zijn en dat we daaraan moeten werken. De wereld en de mensheid zijn vaak een rotzooitje, maar dat is juist leuk en interessant en dat mogen we niet vergeten.

Zoals je misschien kunt merken, is dit een kwestie waar Waag nog aan kan en moet werken. We staan open voor feedback en we horen het graag als jij ideeën hebt over hoe participatief ontwerp inclusiever gemaakt kan worden. We horen het ook graag als jij het gevoel hebt dat er een hoge drempel voor jou is om betrokken te raken bij de publieksprogramma’s of co-creatie sessies van Waag. We denken graag mee en we willen werken om die drempel voor jou en anderen te verlagen. Je kunt ons bereiken op info@waag.org.

Deze sessie was een initiatief van de Werkgroep Diversiteit en Inclusie, die vorig jaar is opgesteld om de waarden diversiteit en inclusiviteit een centrale plek binnen Waag te geven. 

Meer weten over gekleurde technologie?
•    Data-onderzoeker Joy Buolamwini (MIT) werd bekend met haar onderzoek rondom onbewust gecodeerde discriminatie in algoritmes. Eerder organiseerden we een meet-up met regisseur Shalini Kantayya, die een documentaire maakte over discriminerende algoritmes en Buolamwini.

Joy Buolamwini

Joy Buolamwini

•    Kijk dit filmpje: Compassion through Computation: Fighting Algorithmic Bias door Joy Buolamwini. Voor meer informatie over gezichtsherkenning, gender en etniciteit, zie Gender Shades.
•    Check de blog Slechte buurt of slechte data? in de reeks Gekleurde Technologie. Take-away: het heersende idee dat data altijd neutraal is, en dat we op een neutrale manier over etniciteit kunnen praten, zal moeten veranderen.
•    Bekijk de tips van Morgan Klaus Scheuerman en Katta Spiel over hoe je human-computer-interactie inclusiever kan maken voor alle genders. 
•    Withuiswerk.nl biedt veel leermaterialen aan over racisme, en specifiek in Nederland. 
•    Elk jaar steken we de peilstok in het internet. Dit jaar onderzochten we algoritmisch onrecht en de potentiële gevaren van slimme, zelflerende systemen. Wie zitten er aan de knoppen? Wie ontwerpt de knoppen? En hoe zorgen we dat algoritmes voor iedereen even goed werken? Kijk De staat van het internet: inclusieve AI 2021 met keynote spreker Sennay Ghebreab terug.

Auteur: Marit Hoefsloot