In het kort:
AI-gegenereerde afbeeldingen worden zo geavanceerd dat zelfs experts moeite hebben echte van neppe beelden te onderscheiden.
- Na berichten over Maduro's arrestatie circuleerden massaal nepbeelden op sociale media die moeilijk te controleren waren
- Elon Musks chatbot Grok kan mensen digitaal uitkleden, wat duizenden plaatjes per uur genereert
- Watermerken en detectietools zijn vaak te omzeilen door screenshots te maken of metadata te verwijderen
Het grote plaatje:
Hoewel beeldbewerking al honderd jaar bestaat, verlagen AI-tools de drempel dramatisch voor het maken van overtuigende nepbeelden.
"100 procent uitsluitsel kun je bijna nooit geven", zegt digitaal onderzoeker Zeno Geradts van het Nederlands Forensisch Instituut. Bedrijven zoals Google voegen wel watermerken toe aan AI-beelden, maar deze zijn meestal te verwijderen. Detectietools kunnen alleen bij bekende afbeeldingen redelijke conclusies trekken, maar zijn nooit volledig zeker.
Wat volgt:
Geradts benadrukt dat internetgebruikers voorzichtig moeten zijn en zich bewust moeten worden dat veel beelden nep kunnen zijn. Hij vindt dat makers van AI-programma's ook verantwoordelijkheid dragen, maar erkent dat de ontwikkeling niet te stoppen is.



