Do worry be happy robotic arm visual
Waag BY-NC-SA

DO worry, be happy! 'De bevooroordeelde robot'

In de blogserie ‘DO worry, be happy!’, spreken we experts uit het veld van technologie, innovatie en ethiek over nieuwe ontwikkelingen. Aan de hand van actualiteiten vragen we hen uit te leggen waarom we ons zorgen moeten maken over de toekomst van technologie in onze samenleving. Maar niet getreurd, we zoeken ook naar de wijze waarop je zelf regie weer kunt nemen. DO worry, maar be happy dus.

Aanleiding

Een artikel in the Guardian vermeldt dat er artificiële intelligentie bestaat die op basis van een foto met 81 procent zekerheid kan inschatten wat de seksuele voorkeur is. De conclusie die the Guardian trekt is dat deze zogenaamde ‘gaydar’ ingezet kan worden in opsporing van homoseksualiteit. Dat klinkt angstaanjagend. Maar het probleem is niet dat AI daar daadwerkelijk toe instaat is. Het probleem is dat journalisten die aanname niet kritisch bevragen en daarmee bijdragen aan de mystificatie van artificiële Intelligentie.

Om deze blogserie af te trappen stelden we deze vragen aan Marleen Stikker, directeur van Waag. Stikker betoogt dat ‘technologie niet neutraal is’, en kijkt binnen haar dagelijkse werk naar manieren om invloed uit te oefenen op het ontwerp van technologie met als doel deze open, eerlijk en inclusief te maken.

Wat is hier het probleem?

The Guardian heeft de claims van de wetenschappers zonder enige kritische analyse overgenomen en draagt bij aan het beeld dat artificiële intelligentie supermacht heeft. Het is exemplarisch hoe de media bericht over de claims van technologie. De ‘claim’ dat software homoseksualiteit kan detecteren klopt niet en bij nadere analyse van het onderzoek blijkt dat de dataset die gebruikt is al ‘voorgekookt’ was. Zelflerende machines reproduceren stereotypes en vooroordelen van haar makers. Of zoals Gregor Mattson zegt in zijn uiterst intelligente kritiek op het Guardian artikel: ‘Machine learning is het witwassen van vooroordelen.’

Lerende machines worden gevoed door datasets: in dit geval de profielfoto’s van blanke mannen die openlijk voor hun seksualiteit uitkomen, op zoek zijn naar een partner en ingeschreven op een online datingsite. Noch objectief noch representatief dus. Daar gaat het artikel in haar ‘angst voor AI’ totaal aan voorbij.

Waarom moeten we ons hier druk om maken?

Het is zorgwekkend dat de claim over deze slimme machine niet gefalsificeerd wordt door wetenschap en journalistiek. Kritische notie over bias in machine learning wordt niet toegepast op deze publicatie en the Guardian neemt dit klakkeloos over. Dit doet lijken dat AI inderdaad slimmer dan mensen wordt, terwijl het alleen beter is het reproduceren van stereotypes en vooroordelen. Machines zijn vervolgens beter in herkennen van diezelfde stereotypes. Wij mensen zien meer nuances. Dat zou de titel van het artikel moeten zijn. Om nog maar te zwijgen over het feit dat het begrip seksualiteit wordt teruggebracht naar twee categorieën en het 19e-eeuws denken waarin je kaaklijn definieert of je op mannen valt of niet. Dit terwijl we juist een emancipatiegolf beleven waar plek is voor meer vormen van seksualiteit. De systemen richten we nu in om cultureel terug te gaan naar de 19e eeuw, terwijl we als mensen eindelijk in staat zijn buiten deze beperkte categorieën te denken.

Zie je een trend op dit gebied?

Hier gaan we nog veel meer van zien. Vormen van artificiële intelligentie die bevooroordeeld zijn door training en data waar het mee gevoed wordt. De bias en vooronderstellingen zijn van de onderzoekers en degene die het onderzoek financieren. We moeten onszelf afvragen: met welke intenties is het onderzoek opgezet en met welke uitkomsten is de opdrachtgever tevreden? Het blijven cruciale vragen. Je ziet dat de wereld wordt gereduceerd tot categorieën die de machine kan leren. Vervolgens wordt de machine geportretteerd als ‘beter’ of ‘slimmer’ dan de mens, terwijl hij juist nuances mist. Alle grijze zones verdwijnen. De machine is immers beperkt tot het uitspuwen van de rommel die haar programmeur erin stopt. Het aanbrengen van de categorie definieert de uitkomst. Het vraagstuk rond AI en gezichtsherkenning gaat hierbij ook steeds urgenter worden. James Vincent gaat daar in zijn artikel op the Verge nog dieper op in.  

Hoe kunnen we concreet invloed uitoefenen?

Misschien triviaal, maar ik krijg altijd veel energie van initiatieven die de machine voor de gek houden. In de traditie van ‘suiker in de tank’. Laten we een applicatie maken waarbij je vijf varianten van je eigen gezicht kan generen, met ieder een iets andere verhouding van neus, ogen, kaaklijn. Als je een profielfoto op social media upload kan deze app. dan automatisch vijf varianten van jouw foto in doorlopende carrousel laten gaan. Door de databases te vullen met fake informatie voorkom je dat je als persoon in een stereotype categorie wordt geplaatst en hiernaar wordt beoordeeld.

Een meer structurele aanpak is het vergroten van de kennis over de bias van zelflerende systemen. Ik pleit daarbij ook voor een algoritme autoriteit, zodat claims en bias kan worden beoordeeld. Artificiële intelligentie moet daarbij expliciet laten zien hoe er getraind wordt, door wie en vanuit welke waarden en financiële belangen dit gebeurt. Alleen dan kunnen we technologie echt controleren en de baas blijven.