Via het AI-Trendonderzoek onderzoekt Berenschot op welke wijze in Nederland gebruik wordt gemaakt van AI, nu en in de nabije toekomst. Het onderzoek geeft inzicht in hoe professionals en organisaties AI toepassen, en welke kansen en uitdagingen dat met zich mee brengt. Zo blijkt dat digitale veiligheid veruit de grootste uitdaging is voor organisaties bij de implementatie van AI. Het gebruik van AI neemt steeds meer toe, maar organisaties hebben lang niet altijd de juiste maatregelen genomen om dit verantwoord te kunnen doen.
Lees hier het hele AI-Trendonderzoek 2025.
Marleen Stikker en Sander van der Waal van Waag Futurelab reflecteerden op de resultaten van het AI-Trendonderzoek 2025:
Flink werk aan de winkel om vat te krijgen op AI
Waag Futurelab onderzoekt wat de impact van technologie is op onze samenleving, en focust daarbij vooral op hoe de samenleving zelf invloed en grip kan krijgen op deze technologie. Juist ook als het gaat om een ogenschijnlijk ongrijpbare technologie als Artificiële Intelligentie (AI). In eerder onderzoek hebben we al de Nederlandse bevolking bevraagd wat volgens hen de onderzoeksprioriteiten moeten zijn als het gaat om de ontwikkeling en implementatie van AI [1]. De belangrijkste zorg van deelnemers was dat AI het steeds moeilijker maakt om echt van nep te onderscheiden, en dat het tot verlies kan leiden van controle over ons eigen leven. Ook uitten mensen zorgen over de controleerbaarheid van bedrijven en overheden in hoe zij AI ontwikkelen en toepassen. Hoe weten we als samenleving of het belang van mens en maatschappij voldoende wordt meegewogen?
In het huidige onderzoek zien we vergelijkbare zorgen terugkomen. Zo wordt “Digitale veiligheid” als voornaamste uitdaging rondom AI-gebruik genoemd. De zorgen die uit beide onderzoeken naar voren komen hebben deels dezelfde onderliggende oorzaken: veel van de generatieve AI-toepassingen zijn zonder controle vooraf de wereld in gebracht. AI wordt in werkprocessen geïmplementeerd, nog voor de consequenties in beeld zijn gebracht. De samenleving is in wezen het proefkonijn.
Bovendien zijn het vaak commerciële en buitenlandse aanbieders die bepalen hoe en met welke data de AI wordt getraind en welke risico’s men aanvaardbaar vindt. Of risico’s wel of niet genomen worden, wordt daarmee niet getoetst aan Nederlandse of Europese wetgeving en juist wel aan de hoeveelheid winst die gemaakt kan worden. Het belang van mens en maatschappij is daaraan ondergeschikt.
De twee meest populaire toepassingsgebieden voor AI zijn natuurlijke taalverwerking (NLP) en spraakherkenning en verwerking. Deze technologie wordt door aanbieders als Meta, Google en Microsoft geïntegreerd in bestaande producten. Zo introduceren zij generatieve AI in werkomgevingen, voordat er door de meeste organisaties beleid of kaders zijn aangebracht. Dat wordt bevestigd door deze studie. 43% van de organisaties heeft helemaal geen richtlijnen opgesteld voor AI-gebruik. Dat is zorgelijk. Werknemers, klanten, leveranciers en burgers worden niet geraadpleegd over wenselijkheid en effecten, maar zijn wel afhankelijk van de technologie in hun relatie met de organisatie. Ook de risico’s die samen hangen met het ‘black box’-aspect van de AI-systemen worden niet vooraf geagendeerd. Het is onbekend wat de gevolgen zijn van het invoeren van informatie om gebruik te kunnen maken van generatieve AI voor bedrijfsprocessen.
Door het achterblijven van beleidsontwikkeling komt het vraagstuk van strategische autonomie en (nieuwe) afhankelijkheden onvoldoende in het vizier. De geopolitieke ontwikkelingen hebben onze relatie tot Amerikaanse techbedrijven verder geproblematiseerd. Meer dan ooit moeten organisaties zich afvragen of het verstandig is primaire bedrijfsprocessen afhankelijk te maken van Amerikaanse AI-bedrijven of andere private partijen die een locked-in mechanisme kunnen afdwingen. Ook moeten we ons afvragen in hoeverre AI-systemen als publieke gemeenschapsdienst moeten worden beheerd. Bijvoorbeeld door het ontwikkelen van eigen taalmodellen, zoals dat met GPT-NL wordt beoogd. Daarmee houden we als Nederland controle over de Nederlandse taal en krijgen we vat op welke AI we in Nederland wel of juist niet willen toelaten.
We ondersteunen de oproep tot het ontwikkelen van visie en beleid ten aanzien van AI. Zoals de beslisboom verantwoord gebruik AI laat zien zijn er duidelijke stappen nodig om te bepalen wanneer AI wel of niet toegepast moet worden, waar nu nog onvoldoende rekenschap van wordt gegeven. Daarbij is het van belang ook rekening te houden met achterliggende vragen, zoals hoe een AI-systeem tot stand is gekomen, en welke rechten de leverancier claimt voor het gebruik van de gegevens die men invoert. Naar analogie van de randomised controlled trials uit het zorgdomein is het onverantwoord om generatieve AI in gebruik te nemen zonder een gecontroleerd proces.
Ten slotte zien we in het onderzoek terug dat zelfs als er AI-beleid gemaakt wordt, lokale stakeholders en maatschappelijke organisaties onvoldoende zijn betrokken. Tegelijkertijd is het duidelijk dat het verantwoord gebruik van AI ons allemaal aangaat. Een stap in de goede richting is gezet door de gemeente Amsterdam. Bij hun ontwikkeling van een visie op AI heeft ze de inwoners van Amsterdam betrokken [2]. We roepen dan ook op om Amsterdams voorbeeld te volgen en gezamenlijk te werken aan een visie op AI, waarbij we onze strategische autonomie versterken.
[1] https://waag.org/nl/article/nederlandse-bevolking-stelt-prioriteiten-vo…;
[2] https://www.amsterdam.nl/innovatie/amsterdamse-visie-ai/