De grootste slachtoffers van deepfakes zijn vrouwen (2024)

Een toekomst waarin je je eigen ogen niet meer kunt geloven. Telkens wanneer gemanipuleerd of bedrieglijk beeld van bekende mensen verschijnt, laait de angst voor deepfakes op.

In maart beval de Oekraïense president Volodymyr Zelensky zijn troepen om de wapens neer te leggen in een met deepfaketechnologie gemaakt filmpje dat de ronde deed op sociale media. Vorig jaar kondigde Mark Rutte verregaande klimaatmaatregelen aan in een deepfake van De Correspondent. En in april 2021 dacht een Tweede Kamercommissie te hebben gesproken met een deepfake-medewerker van de Russische oppositieleider Aleksej Navalny. Het bleek een geschminkte komiek in een badjas te zijn die een stunt uithaalde.

Er wordt al jaren gewaarschuwd voor deepfakes, maar welke dreigingen komen er nu écht op ons af ? En, is Nederland daar voldoende op voorbereid?

Het gebruik van deepfaketechnologie zal de komende jaren een grote vlucht nemen, verwachten experts in een begin dit jaar verschenen onderzoeksrapport van het Wetenschappelijk Onderzoek- en Documentatiebureau (WODC), het kennisinstituut van het ministerie van Justitie en Veiligheid. Een deepfake is beeld, geluid en ander digitaal materiaal dat is gemanipuleerd met behulp van kunstmatige intelligentie. Je voert een computer bijvoorbeeld duizend beelden van Rutte, waarmee die leert de gezichtsuitdrukking en stem van de minister-president na te bootsen. Het eindresultaat is een filmpje waarin hij dingen zegt die in het echt nooit uit zijn mond zijn gekomen.

In het WODC-rapport voorspellen experts dat over ongeveer zes jaar ruim 90 procent van alle digitale content gedeeltelijk of volledig gemanipuleerd zal zijn. In zo’n geval zal het steeds lastiger worden om te verifiëren wat echt is en wat nep voor burgers, journalisten en rechters. De Tweede Kamer wacht nog op een kabinetsreactie op het onderzoek.

Roep om meer wetgeving

Gezien de gestage opmars van deepfaketechnologie klinkt er al gauw een roep om meer wetgeving. Hoe kunnen we dit een halt toeroepen? Maar de onderzoekers schrijven dat veel problematische toepassingen van deepfakes al verboden of juridisch ingekaderd zijn. Denk aan fraude door de stem van een bekende na te bootsen, laster door iemand verzonnen uitspraken in de mond te leggen, of afpersing door te dreigen een deepfake online te zetten als iemand niet betaalt.

Het probleem zit in de handhaving, die erg omvangrijk en complex dreigt te worden, zo houden de auteurs de Tweede Kamer voor. „Ook omdat handhaving pas aan de orde komt als het kwaad al is geschied.”

Dat laatste geldt ook voor de schade die deepfakes nu al aanrichten. Hoewel de angst bij deepfakes is dat ze onze democratie zullen ondermijnen door de verspreiding van mis- en desinformatie, blijkt de meest voorkomende hedendaagse toepassing veel banaler: de technologie wordt vooral gebruikt om vrouwen, bekend of onbekend, te laten figureren in gemanipuleerde p*rnofilmpjes.

Dat komt doordat het maken van een echt overtuigende deepfake, die mensen daadwerkelijk op het verkeerde been zet, een nog heel moeilijke en tijdrovende klus is. Maar voor het maken van een eenvoudige manipulatie, waarbij de trucage zichtbaar is, is veel minder kunde en rekenkracht nodig – en juist die slordige deepfakes zijn goed genoeg voor de amateur- of professionele p*rnoproducent. Sensity, een bedrijf dat deepfakes detecteert, meldde in 2020 dat 93 procent van de 85.000 door het bedrijf gevonden deepfakes p*rnografisch van aard zijn. Recentere cijfers ontbreken.

Wie ‘deep nudes’ zoekt vindt tal van apps die helpen bij het uitkleden van mensen op foto’s

Deepfakes hebben impact op vrouwen

p*rnografische deepfakes kunnen een enorme impact hebben op vrouwen, stelt Simone Belt van Helpwanted.nl, een organisatie die hulp en advies biedt bij online seksueel misbruik. „Wat wij vaak zien is dat het gevoel dat iemand een intiem beeld van jou in zijn bezit heeft en alle controle daarover heeft, ervoor zorgt dat jij je heel machteloos voelt.” Bovendien worden vrouwen met naaktbeelden, echt én nep, vaak bedreigd of afgeperst, zegt Belt. „En de angst dat de beelden verspreid worden is voor veel slachtoffers groot genoeg om aan de dreigers of afpersers toe te geven.”

p*rnografische deepfakes zijn makkelijk te vinden op internet, en in veel gevallen niet moeilijk om te maken. Wie ‘deep nude’ intikt op Google, wordt bovenaan de resultatenlijst gewezen op verschillende applicaties die helpen bij het uitkleden van mensen op foto’s. Je uploadt een foto van een persoon, en de door kunstmatige intelligentie aangedreven app maakt daar een naaktfoto van. Even eenvoudig zijn talloze websites te vinden die volledig toegewijd zijn aan deepfake-p*rnofilmpjes van voornamelijk bekende actrices. Ook hier in Nederland vallen er slachtoffers. Zo zagen bekende Nederlandse presentatrices als Chantal Janzen en Dionne Stax hun gezichten opduiken in gefabriceerde seksfilmpjes.

Maar ook onbekende mensen zijn slachtoffer. In India dook een bende op die Instagram-foto’s van mensen gebruikte om seksfilmpjes van ze te maken, om ze er vervolgens mee af te persen. Toen de 33-jarige Rohan Bhasin werd benaderd door een afperser, weigerde hij te betalen. Dat kwam hem op een vernederende ervaring te staan: de dader deelde een filmpje met al zijn vrienden en familie waarin het lijkt alsof Bhasin in een sekschat zit.

De grootste slachtoffers van deepfakes zijn vrouwen (1)

Wetgeving biedt geen bescherming

De Nederlandse wetgeving en handhaving is op dit moment niet toegerust om vrouwen adequaat te beschermen tegen de negatieve effecten van deepfakep*rno, zeggen deskundigen tegen NRC.

Momenteel is het niet strafbaar om een deepfake-seksvideo van iemand te maken, slechts om die te verspreiden. Wie voor eigen genot iets maakt blijft buiten schot. „Stel dat jij weet dat je buurjongen vieze plaatjes van je maakt, maar het voor de rest niet verspreidt; dan kun je daar eigenlijk niets tegen doen”, legt universitair hoofddocent in Tilburg Bart van der Sloot uit. Hij is schreef mee aan het WODC-rapport over deepfakes en geldt als expert op het gebied van technologie, recht en privacy. In het rapport stellen de onderzoekers een aantal wetgevingsopties voor aan de Kamer. „Het heeft een enorme impact op iemand als zij weet dat de buurjongen een deepfake-seksfilmpje over haar heeft gemaakt. Dus dat is echt iets waarbij je zou kunnen zeggen: overweeg serieus om dat strafbaar te maken zodat die buurjongen direct kan worden aangesproken als hij over zijn filmpje opschept tegen zijn vrienden”, zegt Van der Sloot.

Wie een deepfake-p*rnofilm maakt, mag zich beroepen op het recht op privacy, wat omvat dat de overheid niet mag meekijken met wat jij achter je computer uitspookt. Daarnaast kan je ook een beroep doen op je recht op vrijheid van meningsuiting; je mag schokken, beledigen en verwarren. Dit kan, als de film wordt verspreid, echter raken aan het recht op eer, goede naam en reputatie van de afgebeelde persoon. In zo’n geval is het aan de rechters om per zaak te kijken wie nou goed zit, en wie fout.

Deepfakep*rno als seksueel misbruik

Dat er nog geen duidelijke wetgeving over deepfakes bestaat, vindt Marthe Goudsmit een gemis. Zij doet in Oxford promotie-onderzoek naar de strafbaarstelling van misbruik met seksueel beeldmateriaal. Goudsmit pleit ervoor dat deepfake-p*rnobeelden worden opgenomen in de aankomende Wet Seksuele Misdrijven. De huidige zedenwet is verouderd en wordt aangescherpt. Goudsmit hoopt dat het wetsvoorstel ook vormen van online seksueel misbruik zal behandelen. Een slachtoffer dat zonder toestemming vooraf wordt afgebeeld in een filmpje waarin diegene seksuele handelingen verricht, wordt geschonden in zijn of haar recht op seksuele autonomie, redeneert Goudsmit. Dat zou betekenen dat ook deepfakep*rno moet worden gezien als een vorm van seksueel misbruik.

Lees ookDe deepfake rukt op in p*rno en politiek

Het probleem is breder, zegt Goudsmit: in de huidige wet wordt geen enkele vorm van seksueel beeldmateriaal gezien als seksueel misbruik. Er zijn twee consultatieperiodes geweest voor de nieuwe wet, en beide keren hebben Goudsmit en andere deskundigen geadviseerd misbruik met seksueel beeldmateriaal op te nemen in de nieuwe Wet Seksuele Misdrijven, maar dat is nog niet gebeurd. „Daaronder zouden wat mij betreft ook deepfakes moeten vallen”, stelt ze.

Oud-minister van Veiligheid en Justitie Ferdinand Grapperhaus zei in 2021 dat de nieuwe wet pas in 2024 ingevoerd kan worden. Mensenrechtenorganisatie Amnesty International vindt dat het allemaal veel te lang duurt, omdat ondertussen slachtoffers van seksueel misbruik minder goed geholpen kunnen worden. De nieuwe minister van Justitie en Veiligheid Dilan Yeşilgöz-Zegerius zei na de onthullingen over misstanden bij The Voice of Holland dat ze dit proces wil versnellen.

Van der Sloot maakt zich zorgen over de gevolgen die deepfakes kunnen hebben. „Je weet dat meer dan 90 procent van alle deepfakes momenteel p*rno zonder instemming is”, zegt hij, „Dat kan een enorme impact hebben op vrouwen, bijvoorbeeld op middelbare scholieren van wie een deepfake-p*rnofilmpje wordt verspreidt.”

„Uit de Vrouwenstudies weten we dat zelfs als een meisje weet dat de video niet echt is, het alsnog een grote impact kan hebben op haar zelfbeeld als ze zichzelf perverse handelingen ziet verrichten. En zelfs al weet de hele klas dat het filmpje nep is, dan nog kan daar een sociale dynamiek omheen ontstaan. Daar ben ik bezorgd over. Daar zou je iets tegen kunnen doen.”

Een versie vandit artikelverscheen ook inNRC Handelsbladvan 11 april 2022.

De grootste slachtoffers van deepfakes zijn vrouwen (2024)

References

Top Articles
Latest Posts
Article information

Author: Mrs. Angelic Larkin

Last Updated:

Views: 6236

Rating: 4.7 / 5 (47 voted)

Reviews: 94% of readers found this page helpful

Author information

Name: Mrs. Angelic Larkin

Birthday: 1992-06-28

Address: Apt. 413 8275 Mueller Overpass, South Magnolia, IA 99527-6023

Phone: +6824704719725

Job: District Real-Estate Facilitator

Hobby: Letterboxing, Vacation, Poi, Homebrewing, Mountain biking, Slacklining, Cabaret

Introduction: My name is Mrs. Angelic Larkin, I am a cute, charming, funny, determined, inexpensive, joyous, cheerful person who loves writing and wants to share my knowledge and understanding with you.