FUZZY MONSTERS, 2 sreies, 27 gens - DALL-E
FUZZY MONSTERS, 2 series, 27 gens - DALL-E ©

Hoe om te gaan met AI? Twee tips voor beeldmakers

Technologie is niet neutraal. Het is een reflectie van cultuur en politieke overtuiging. Net als in andere vertalingen van macht, liggen in technologie vooroordelen, ongelijkheden en racisme ingebakken. In deze serie duiken we in de materie om de onderste steen boven te halen. We laten aan de hand van concrete voorbeelden zien dat technologie niet neutraal is én gaan op zoek naar oplossingen.

‘Een AI die een cocktail serveert aan de bar’. In november 2022 maakten we bij Waag Futurelab op basis van wat zoekwoorden een afbeelding voor de Museumnacht promotie. DALL-E maakte het doodeenvoudig en de uitkomst was verrassend leuk. Voor wie DALL-E en soortgelijke programma’s nog niet kent: het is een gratis kunstmatige intelligentie programma dat op basis van zoekwoorden (prompts) een uniek beeld kan maken.

Dankzij een gigantische dataset van miljarden afbeeldingen, oftewel trainingsdata, leren programma’s als DALL-E, Midjourney en Stable Diffusion steeds betere afbeelding maken op basis van prompts. Deze trainingsdata worden van het internet gescraped, wat vergaande gevolgen heeft voor het auteursrecht en de vraag rondom authenticiteit van beelden. 

Onrust onder beeldmakers

Inmiddels worden kunstenaars, illustratoren en beeldmakers onrustig van de ontwikkelingen rondom AI-kunstplatforms. Dat merkt Luna Schumacher, jurist bij Pictoright. Als beeldmaker kun je je bij deze auteursrechtorganisatie aansluiten om aanspraak te maken op collectieve vergoedingen en individuele rechtsbescherming.

Stijl is niet beschermd

‘We zien twee problemen,’ zegt Luna Schumacher. ‘Enerzijds zijn mensen bang voor hun concurrentiepositie. Ze zien de kans dat ze op een gegeven moment vervangen gaan worden door AI-programma’s. Aan de andere kant vrezen ze dat hun werk onrechtmatig gebruikt wordt.’

AI-systemen hebben door mensen gemaakte beelden nodig, want zonder input kan een AI-systeem niets genereren. Het systeem wordt getraind op basis van data (in dit geval: de beelden) die aan het systeem worden gevoed. Door middel van machine learning leert het AI-systeem voortdurend bij over nieuwe trends of onderlinge verbanden tussen zoekopdrachten en beeld.

Het onrechtmatige gebruik van beschermde beelden wordt momenteel aangekaart in Amerika, waar een groep juristen namens drie kunstenaars een rechtszaak begon tegen drie makers van dergelijke AI-software: StabilityAI, DeviantArt en Midjourney. In Groot-Brittannië sleepte Getty Images StabilityAI voor het gerecht, omdat de Getty Images-database zou zijn gescraped zonder toestemming.

In Nederland loopt op dit moment nog geen rechtszaak tegen AI-kunstplatforms. Dat komt doordat er een bijzondere uitzondering op het auteursrecht geldt in Nederland en de meeste EU-landen: tekst- en datamining (TDM). ‘Die gaat uit van het idee dat je werk ook voor commerciële doeleinden gescraped mag worden van het internet, tenzij je specifiek aangeeft dat je dat niet wilt,’ legt Schumacher uit.

Tip 1: Vermeld een opt-out

Als je wil voorkomen dat je werk wordt gebruikt voor AI-trainingsdoeleinden, dan kun je een opt-out opnemen in je website. Dit is een verklaring waarmee je aangeeft: ‘ik wil niet dat mijn werk voor AI-trainingsdoeleinden wordt gebruikt.’ ‘Hoe zo’n voorbehoud er in de praktijk uit zou moeten komen te zien is nog onduidelijk,’ aldus Luna Schumacher. En hoe werkt dat dan met het uploaden van beeld op sociale mediaplatforms? ‘Zodra je overeenstemt met de algemene rechten en voorwaarden doe je waarschijnlijk afstand van de mogelijkheid van de opt-out.’ In sommige gevallen kun je wel een opt-out aanvinken.

Tip 2: Have I been trained?

Als je vermoedt dat je werk in de trainingsdatabase van StabilityAI zit, dan kun je dat checken met de online tool Have I been trained. Dezelfde makers hebben een gerelateerde tool gebouwd, Spawning, om een opt-outverzoek te doen waarmee je uit de database gehaald wordt. StabilityAI zegt die aanvragen te gaan honoreren, maar of ze zich daaraan houden, is momenteel nog onduidelijk.

Een beschermd internet met AI-licenties

Wat niet beschermd wordt bij een opt-out, is ‘stijl’. Zowel individuele stijl als collectieve kunststromingen zijn niet beschermd onder het auteursrecht. Ergens is dat fijn, omdat we niet zouden willen dat het expressionisme of dadaïsme toegeëigend worden door mensen. Aan de andere kant is het vervelend als jouw individuele beeldtaal overduidelijk wordt gekopieerd. Voorheen konden makers elkaar daarop aanspreken (of afrekenen), maar het is een stuk onduidelijker waar de verantwoordelijkheid ligt bij een AI-genererende tool.

Naast de twee tips voor individuele makers, kan ook aan een collectieve oplossing worden gedacht: een soort ‘opt-in’. Hiermee zouden organisaties als Pictoright en Getty Images afbeeldingen met de instemming van beeldmakers als trainingsdata kunnen aanbieden bij AI-bedrijven, onder een licentie. Maar dat zit er op de korte termijn nog niet in, aldus Schumacher. ‘Je moet een groot mandaat hebben van veel makers om dat te mogen doen. Bovendien is er een wetswijziging nodig om het praktisch uit te voeren.’

AI-kunstplatforms roepen veel vragen op rondom authenticiteit, auteursrecht en het bezitten en delen van beelden. Gezien de snelle ontwikkelingen van AI-kunstplatforms is een maatschappelijke discussie nodig, en verder onderzoek.

AI-gegenereerde kunst reproduceert vaak discriminerende vooroordelen en stereotypes, waar met name vrouwen en minderheidsgroepen last van ondervinden. Hierover de volgende keer meer in de Gekleurde Technologie blogserie.