AI
Waag Futurelab BY-NC-SA

Nederlandse bevolking stelt prioriteiten voor onderzoeksagenda AI

58% van de Nederlandse bevolking acht het thema "Nepnieuws, nepfoto's en polarisatie" cruciaal als het gaat over de ontwikkeling van Artificiële Intelligentie (AI) en het onderzoek hiernaar. 

Dit blijkt uit een grootschalig onderzoek uitgevoerd door Waag Futurelab in opdracht van de Nederlandse AI Coalitie (NL AIC) in samenwerking met Ipsos I&O. De aanleiding voor dit onderzoek was een eerder onderzoek, dat plaatsvond in 2023, waarin we 12 maatschappelijke thema's hebben gedefinieerd aan de hand van burger panels en een online enquête. Deze thema's zijn in het huidige onderzoek voorgelegd aan een representatieve steekproef (n=1.327) van de Nederlandse bevolking.

Nepnieuws, machtsverhoudingen en privacy

De belangrijkste resultaten van het onderzoek laten zien dat "Nepnieuws, nepfoto's en polarisatie" door 58% van de Nederlandse bevolking als cruciaal thema in toekomstig onderzoek naar AI wordt gezien. Daarbij worden er zorgen over de verspreiding van valse informatie en het mogelijke misbruik van deepfake-technologie geuit. 

Ook maken Nederlanders zich druk over machtsverhoudingen en de controle die grote techbedrijven en overheden kunnen krijgen door het gebruik van AI technologie. 37% van de respondenten acht dit als een belangrijk thema voor verder onderzoek.

Daarnaast werd technologie die toezicht houdt op mensen en vragen rond vrijheid, verantwoordelijkheid en aansprakelijkheid eveneens gezien als belangrijk thema. Één op de drie respondenten benoemde dit als belangrijke onderwerpen. 

Eveneens liet het onderzoek zien dat het overgrote deel van de Nederlandse bevolking een redelijk tot goed beeld heeft bij AI en er betekenisvolle associaties aan verbindt. Slechts een kleine groep geeft aan geen enkel idee te hebben wat AI is.

Hoe nu verder?

De uitkomsten van dit onderzoek vragen om een reactie van iedereen die een rol heeft in de ontwikkeling van AI in Nederland. Momenteel wordt de samenleving zelden systematisch betrokken bij het tot stand brengen van onderzoeksagenda’s. Naar aanleiding van de uitkomsten van het onderzoek adviseren wij de volgende vervolgstappen:

  • Concreet actie ondernemen om nepnieuws en nepbeelden tegen te gaan; door te investeren in strategische projecten én open calls waarbij ook partijen uit de samenleving zelf kunnen deelnemen.   
     
  • De samenleving opdrachtgever maken van projecten en calls die een maatschappelijk doel dienen; niet alleen de overheid, wetenschap of bedrijven mogen bepalen welke weg we inslaan binnen de ontwikkeling van AI.  
     
  • Kaders opstellen samen met de samenleving om te bepalen waar AI aan moet voldoen; daarin uitwerken wat begrijpelijkheid en transparantie van AI minimaal betekent en wat het betekent om publieke waarden te waarborgen in ontwerp zoals vrijheid, democratie, inclusiviteit, privacy en veiligheid. 
     
  • Het creëren van vertrouwen in AI, door AI te ontwikkelen die vertrouwen verdient, door;

    a. Mensen een kans te geven (middels co-creatie) om invloed uit te oefenen op de ontwikkeling van AI en hun waarden te gebruiken als basis voor ontwerp.

    b. Kennis van en ervaring met AI vergroten bij de samenleving middels onderwijs en experimenten voor iedereen.  
    c. Realiseren van een organisatie of meldpunt dat AI controleert en waar mensen naartoe kunnen om informatie te krijgen of problemen en/of misstanden te melden.
     

Onderzoeksrapport en visualisatie

Via deze link lees je het volledige onderzoeksrapport met onze aanbevelingen. Ook hebben we de resultaten van het onderzoek verwerkt in onderstaande visualisatie.

Infographic AI