Slim speelgoed: wat is ons antwoord?

Met de opkomst van kunstmatige intelligentie is kinderspeelgoed een stuk geavanceerder geworden. Net als een Alexa of andere slimme stemassistenten kan slim speelgoed de hele dag meeluisteren met alle gesprekken. Het actuele debat rondom slim speelgoed gaat vooralsnog veel over privacy en data, maar in het geval van slim speelgoed dienen zich ook andere vragen aan. Want als speelgoed gaat terug praten, welke opvoedstijl houden AI Barbie en haar pratende robotvrienden er dan eigenlijk op na? Kunnen ouders straks kiezen uit Tiger-mom- of Montessori-Barbies? Welke rol krijgt AI in de relatie tussen ouders en kinderen? En hoe verandert slim speelgoed het spelen zelf?

“Yeah, I like tragedies, too. It's strange but I actually like feeling sad sometimes, you know?” - Hello Barbie

Vanuit deze vragen begonnen SETUP en Waag met een gedeeld onderzoek naar slim speelgoed - AI AI Barbie. Dat het onderwerp nog in de kinderschoenen staat, zagen we als kans. Samen met makers en experts wilden we verschillende toekomstscenario's uitdenken, verbeelden en bouwen. Vooral door scenario's tastbaar te maken, kwamen er nieuwe, spannende vragen naar de oppervlakte. Kansen, maar ook risico's. In dit artikel delen we onze bevindingen.

Invloed op morele keuzes

Op 6 juni werkten we in een hackathon met verschillende makers nieuwe prototypes van slim speelgoed uit. In de avond schoof een reeks experts aan om deze 'fresh off the shelf' werken te bespreken. Gedurende de hele dag was ook Stefania Druga (MIT) aanwezig. Stefania raakte tijdens haar opleiding geïntrigeerd door slim speelgoed, een onderwerp dat tot haar verbazing nog vrijwel niet werd behandeld binnen bijvoorbeeld social studies. Haar eerste verkennende onderzoek - met opzienbarende resultaten - liet zien dat dit onterecht is: slim speelgoed blijkt namelijk een grote invloed te hebben op de morele keuzes van kinderen. Ofwel: "my doll says it's ok."

Stefania nam in haar onderzoek verschillende situaties door met basisschoolkinderen. Stel dat iemand in de klas tijdens het voorlezen opstaat, is dat netjes? In de gevallen dat een smart toy ook een oordeel over deze situaties had gegeven, bleken kinderen sneller geneigd om het standpunt van de robotvriend over te nemen. Maar dat was niet alles: ook bleken kinderen, vooral ouder dan 8 jaar, robots slimmer in te schatten dan zichzelf. Terwijl dat niet waar blijkt te zijn. Pas na een aantal lessen waarin ze zelf AI's leerden maken, nam dat percentage hard af. Door te zien hoe AI's worden gebouwd - en ze zelf te maken en trainen - kunnen we het woord 'slim' flink nuanceren.

Moody Monsters en Socra-Tessa's

In de hackathon maakten we gebruik van Microbits, Scratch en Cognimates. Cognimates werd samen met Stefania ontwikkeld door het MIT Media Lab en is een AI-uitbreiding op Scratch. Door AI-modellen eenvoudig beschikbaar en inzetbaar te maken, kunnen meer mensen hier zelf mee aan de slag. In de hackathon gingen 4 teams aan de slag met hun eigen prototypes. Of liever provotypes; prototypes die waar mogelijk provocerend zijn en het debat op gang brengen. Oude poppen, speelgoed van de rommelzolder, en uiteraard Furbies werden vakkundig ontleed om een tweede leven te beginnen. Met allemaal een andere startvraag, bleken ze voer voor de gesprekken in de avond.

Neem bijvoorbeeld MoodyMonster, een smart toy die kinderen voorbereidt op de teleurstelling in/van het leven. Het monster neemt je mee op avontuur buiten de deur, maar eenmaal aangekomen reageert het niet zoals verwacht. Het avontuur valt tegen, het monster raakt chagrijnig en wil vervolgens weer naar huis. Het team wilde hiermee verkennen wat er gebeurt als technologie niet altijd frictieloos werkt, maar - net als mensen - ook nukken en grillen kan hebben. Vergelijkbaar met de nieuwe parental controls in Alexa, die vereisen dat kinderen 'please' zeggen als ze de voice-assistant om een gunst vragen. Door frictieloos met technologie te communiceren, zouden we wel eens ons vermogen tot beleefdheid kunnen verliezen, zo is de gedachte. MoodyMonster onderzoekt of technologie meer menselijke vormen kan aannemen.

Ook provotype Socratessa, ontwikkeld door een ander team, is geen dienstbaar stuk speelgoed. Op basis van spraak en tekstherkenning stelt ze een spervuur van socratische vragen aan het kind. Waarom denk je dat? Heb je daar een voorbeeld van? Wat vind je daarvan? Zo dwingt ze tot reflectie en meer eigen inzicht op eigen gedachten en denkbeelden. Socratessa verdeelde het publiek in de avond in twee kampen. Een deel vroeg zich af of je dit menselijke bevragen wel moet uitbesteden aan speelgoed. Anderen zagen juist de toegevoegde waarde om groepsdialogen tussen kinderen te verdiepen.

De donkere kant van slim speelgoed

Opvallend was dat veel teams plezier haalden uit de donkere toekomstscenario's, die het debat op scherp zetten. Best Fake Friend luistert aandachtig naar problemen en zorgen van het kind, om voor de oplossingen vervolgens commerciële producten aan te raden. Speelgoed als compacte 'influencer' voor fabrikanten en adverteerders. Ook provotype Hesy riep reacties op. Deze smart toy probeert onrust in huishoudens te herkennen, en stuurt via Twitter een alarmerend bericht naar de GGD/Kinderbescherming zodra het een onveilige situatie denkt te herkennen. Dit werk brengt ons morele kompas in de war; we zien hier deels het nut van in, maar moeten ons ook afvragen van wat deze bescherming en veiligheid ten koste gaat. En of een smart toy wel zo'n oordeel kan vellen.

Bevriend met een AI: OK?

Tijdens de avond wierpen moderators Karien Vermeulen en Jelle van der Ster - voor de gelegenheid gekleed als Ken en Barbie - een aantal stellingen de zaal in. Het expertpanel, bestaande uit Jochen Peter (UvA), Cristina Zaga (UT), Daniel Lechner en Stefania Druga, bracht verhalen en voorbeelden in om het gesprek verder te brengen.

"Het is prima als mijn kind bevriend is met een AI, zolang ze een betekenisvolle vriendschap ontwikkelen." Geen consensus, wel een levendig gesprek. Panellid Daniel Lechner wendde zich tot de zaal met een aangepaste versie van deze stelling: "Het is prima als mijn kind alleen een AI als vriend heeft.." Ook Stefania merkt op dat we vriendschap (te) vaak als een totaalconcept zien; het is denkbaar dat AI delen van een vriendschap kan vervullen, maar vriendschap met mensen niet volledig vervangt. Welke delen we kunnen en willen vervangen, daar moeten we samen een antwoord op formuleren.

Wat vindt Barbie van het pensioenakkoord?

Wat er precies gebeurt wanneer slim speelgoed tussen ouders en kinderen komt te staan, weten we simpelweg nog niet. De slimme Barbies en andere robotvrienden bestormen nu pas voorzichtig de consumentenmarkt. Maar wachten willen we ook niet; juist nu is het ijzer heet genoeg om slimme antwoorden te smeden. Zelf programmeren en tinkeren met AI's geeft meer inzicht in de werking ervan. Dat hebben de makers in de hackathon ervaren, en ook Stefania's onderzoek onderstreept dit. Stefania haalt de uitspraak van een achtjarige in haar onderzoek aan: "Mijn vader haalde vroeger zelf auto’s uit elkaar om te leren hoe ze werken, nu doen we dat met AI's."

Dat kinderen leren om AI's te bouwen, vinden we belangrijk. Maar minstens zo belangrijk is dat meer mensen gaan meedoen en -denken. Ontwerpers, hackers, kunstenaars, maar ook ouders, docenten en zorgverleners. We moeten ons ervan bewust zijn dat slim speelgoed uiteindelijk de waarden, oordelen en belangen uit de 'echte wereld' absorbeert. Toegegeven, met Hello Barbie valt op dit moment nog geen echt filosofisch gesprek tot diep in de nacht te voeren. Maar over een jaar? Vijf jaar? Als Barbie's begrippenkader op den duur verder reikt dan mode, dansen en huisdieren, heeft ze dan ook een mening over verplichte vaccinaties of het pensioenakkoord? Hoe zorgen ouders dat ze de juiste opvoedstijl en normen en waarden in huis halen?

Op deze avond gaf het merendeel van het publiek aan dat ze anders zijn gaan nadenken over slim speelgoed. Maar deze vragen gelden niet alleen voor slim speelgoed, maar vrijwel voor alle nieuwe technologie om ons heen. Daarom is het belangrijk dat we meer mensen betrekken bij het debat, en dat we vragen blijven stellen. Socratessa is daarmee niet zomaar een stuk speelgoed, maar een tool die we allemaal nog hard nodig gaan hebben.

In dit project bundelen Waag en Medialab SETUP de krachten, ondersteund door het SIDN Fonds en Stimuleringsfonds Creatieve Industrie. Het event wordt georganiseerd in samenwerking met Stefania Druga. Haar bezoek wordt mede mogelijk gemaakt door Het Nieuwe Instituut met steun van het ministerie van Buitenlandse Zaken.

Dit artikel is een bijdrage van Frank-Jan van Lunteren, SETUP.

Bekijk hier de foto's van de hackathon en de avond.