Deepfakes zijn plaatjes, filmpjes of geluiden die met kunstmatige intelligentie (AI) en andere software gemanipuleerd zijn om net echt te lijken. Een recent rapport van Tilburg University constateert dat meer dan 95 procent van alle deepfakes pornografisch is, en vaak gemaakt zonder toestemming van de mensen die worden afgebeeld. 

Deepfakes kunnen ook dienen om fraude te plegen of je kunt haatzaaien en verkiezingen beïnvloeden met deepfake-nieuws. Over zes jaar is ruim 90 procent van alles wat je digitaal aantreft gemanipuleerd, voorspellen experts. Als daar veel deepfakes tussen zitten, wordt het lastig voor rechters, journalisten en burgers om feit van fictie te scheiden.

“Wat mij heel erg is opgevallen, is hoe realistisch sommige deepfakes zijn”, zegt Tilburg University-docent Bart van der Sloot. “Zowel qua stem als videobeeld kun je iemand iets laten doen of zeggen wat niet van echt is te onderscheiden. Je kunt niet met het blote oog zien dat het nep is, en zelfs bij de beste detectiesoftware glipt ruim een derde van de deepfakes door het net.”

Volgens de Europese privacywet mag je afbeeldingen en andere gegevens van mensen niet zomaar uit hun context halen. Zeker niet om zonder toestemming een onjuiste voorstelling van zaken te geven. Maar een verbod is wel controversieel, vertelt Van der Sloot. 

In plaats van een verbod, focust het rapport op manieren om deepfakes beter te reguleren maar ook dat lost niet alles op. Want hoe handhaaf je de wet als je niet weet of iets nep is?

Het probleem is niet alleen dat veel deepfakes onopgemerkt blijven. Het omgekeerde is ook mogelijk. “Automatische detectiesoftware zoekt naar zogeheten artefacten die duiden op manipulatie. Maar iemand kan ook alleen een artefact maken en dat toevoegen aan echte beelden zodat het systeem denkt dat ze nep zijn. Zo wordt het nog moeilijker om te beoordelen wat waar is en wat niet.”

Alles bij de bron; Trouw