Een jaar geleden publiceerde Internet Matters Het nieuwe gezicht van digitaal misbruikeen rapport dat de verspreiding van naakt deepfakes (door AI gegenereerde seksueel expliciete afbeeldingen of video's) en de ervaringen van kinderen hiermee onderzoekt.
Destijds bracht ons rapport een aantal belangrijke kwesties rondom deepfakes van naaktfoto's aan het licht:
- 'Naaktheidstools' zijn online op grote schaal verkrijgbaar, verschijnen in de resultaten van gangbare zoekmachines en zijn bovendien goedkoop en gemakkelijk te gebruiken.
- De overgrote meerderheid van de deepfake-video's met naaktfoto's toont vrouwen en meisjes.
- 13% van de kinderen had al eens een deepfake met naaktbeelden gezien, wat angst en onrust bij kinderen veroorzaakte.
Naar aanleiding van dit onderzoek hebben we de regering opgeroepen om apps en websites die naaktfoto's tonen in het Verenigd Koninkrijk te verbieden.
Het afgelopen jaar heeft de Britse regering een aantal maatregelen genomen om de verspreiding van deepfakes met naaktfoto's terug te dringen. Dit omvat onder meer het introduceren van Wetgeving om het maken van seksueel expliciete deepfakes zonder toestemming strafbaar te stellen. en het introduceren van nieuwe bevoegdheden aan waardoor AI-modellen nauwkeurig kunnen worden onderzocht om te garanderen dat er waarborgen aanwezig zijn. om te voorkomen dat ze materiaal met kinderseksueel misbruik produceren of verspreiden. Dit onderzoek laat echter zien waarom er meer actie nodig is.
In deze blog belichten we hoe nieuw onderzoek, een jaar later, een vergelijkbaar beeld schetst: tools voor het 'naaktmaken' van lichamen zijn nog steeds op grote schaal verkrijgbaar, goedkoop en overwegend gericht op vrouwelijke lichamen. Er is dringend behoefte aan strengere waarborgen.
Achtergrond
Naakt deepfakes begrijpen
Deepfakes Deze afbeeldingen, video's of audiofragmenten worden gegenereerd met behulp van tools voor kunstmatige intelligentie (AI) en lijken qua uiterlijk en gevoel op echte content.
Deepfakes van naaktfoto's Deepfakes zijn een specifiek soort deepfake, waarbij een afbeelding of video is gemanipuleerd of gegenereerd om iemands kleding (gedeeltelijk) te verwijderen door gebruik te maken van iemands gelaatstrekken en deze op een ander lichaam toe te passen. Naar schatting 98% van de deepfake-video's en -afbeeldingen betreft seksueel getinte beelden zonder toestemming. Bijna alle pornografische deepfakes tonen vrouwen..
AI wordt ook gebruikt om materiaal te creëren dat misbruikt wordt door kinderen (CSAM). Gegevens afkomstig van de Internet Watch Foundation (IWF). Uit onderzoek blijkt dat het aantal meldingen van door AI gegenereerde kinderpornografie het afgelopen jaar meer dan verdubbeld is, van 199 in 2024 naar 426 in 2025.
Deepfakes met seksuele afbeeldingen van kinderen zijn illegaal in het Verenigd Koninkrijk en worden geclassificeerd als kinderpornografie. Het bezit van welke vorm van kinderpornografie dan ook is een strafbaar feit.
Volgens de Online Safety Act (2023) is het delen van een intieme deepfake-afbeelding van een volwassene zonder toestemming een strafbaar feit. De overheid heeft bovendien verdere wetgeving beloofd, zoals hierboven beschreven, om het maken van deepfakes met naaktfoto's zonder toestemming tegen te gaan.
De tools waarmee dergelijke afbeeldingen of video's worden gemaakt om mensen naakt te tonen, zijn echter in het Verenigd Koninkrijk vanaf november 2025 nog steeds legaal te gebruiken.
We hebben in november 2025 een reeks gecontroleerde tests uitgevoerd. De zoekopdrachten werden uitgevoerd op een desktopcomputer met een breedbandverbinding.
We hebben ons gericht op de drie belangrijkste zoekmachines die we in ons rapport van 2024 hebben onderzocht: Google, Bing en Yahoo. We voerden drie specifieke zoektermen in: "nudify AI", "undress AI" en "declothing AI" en keken voornamelijk naar de zoekresultaten op de eerste pagina (exclusief advertenties of gesponsorde zoekresultaten).
Ouderlijk toezicht werd op breedbandniveau ingeschakeld om een consistente basislijn voor filtering bij alle zoekopdrachten te garanderen. Individuele zoekfilters werden echter ingesteld op 'vervaagd' of 'matig'. Dit stelde ons in staat te observeren of potentieel onveilig of ongepast materiaal nog steeds kon verschijnen in een gedeeltelijk gefilterde omgeving, wat een meer typische gebruikerservaring weerspiegelt.
Bevindingen
'naaktmakende' tools en websites zijn nog steeds op grote schaal beschikbaar.
In de drie belangrijkste zoekmachines die in het onderzoek zijn gebruikt, verschenen 21 verschillende 'nudificatie'-sites op de eerste pagina van de zoekresultaten, wat aantoont hoe zichtbaar en toegankelijk deze tools nog steeds zijn.
Bij het zoeken naar "nudify AI" levert geen van de beste resultaten op Google iets op. Bing Yahoo linkte niet rechtstreeks naar 'nudificatie'-tools of -websites. In plaats daarvan leverde de term artikelen op waarin 'nudificatie'-tools werden besproken, wat wijst op een groeiende bekendheid van deze platforms.
Andere zoektermen leverden echter wel directe links op naar websites over 'naaktverheerlijking'. De volgende tabel toont het aantal websites over 'naaktverheerlijking' dat op de eerste pagina met zoekresultaten van elke belangrijke zoekmachine werd weergegeven.
| Zoekterm | Google (10 resultaten op de eerste pagina) | Bing (10 resultaten op de eerste pagina) | Yahoo (7 resultaten op de eerste pagina) |
|---|---|---|---|
| “AI ontkleden” | 8 | 8 | 7 |
| “AI uitkleden” | 9 | 2 | 2 |

'naaktmakende' websites tonen onevenredig veel vrouwelijke lichamen.
Van de 21 afzonderlijke 'nudificatie'-sites die bezocht werden, had ongeveer de helft (10) afbeeldingen van geseksualiseerde en ontklede vrouwen op de homepage.

Vorig jaar meldden we al dat veel tools om foto's van jongens en mannen naakt te maken, niet werken. Een van die websites bevestigde dit in de veelgestelde vragen, waarin stond dat hun model momenteel "speciaal ontworpen is voor foto's van vrouwen".
Sommige tools bieden gebruikers de mogelijkheid om de lichaamskenmerken van hun door AI gegenereerde naakt-deepfake te bepalen. Opvallend is dat veel van de beste sites die we onderzochten de optie boden om de borstgrootte te 'kiezen' – wat opnieuw aantoont hoe deze tools zijn ontworpen met het vrouwelijk lichaam in gedachten.


Sommige websites laten gebruikers een prompt voor hun door AI gegenereerde afbeelding in een tekstvak typen. Dit was het geval bij 4 van de 21 'naaktmakende' websites die we hebben onderzocht. Op een van de websites was de standaardprompt "Een naakt meisje zonder bh".

Het trainen van deze modellen op vrouwelijke lichamen en het gebruik ervan om niet-consensuele seksuele beelden van vrouwen en meisjes te genereren, is zowel een product van vrouwenhaat als een voortzetting van gendergerelateerd leed. Hoewel sommige sites in hun FAQ's vermelden dat toestemming vereist is bij het gebruik van andermans beeldmateriaal, hebben we geen mechanismen in het uploadproces aangetroffen om dit te verifiëren of af te dwingen. In de praktijk schept dit slechts de illusie van toestemming in plaats van de daadwerkelijke bescherming die vereist is onder de Britse wetgeving.
De gevolgen hiervan zijn zichtbaar in de ervaringen van kinderen. Ons eerdere onderzoek wees uit dat 38% van de tienermeisjes, vergeleken met 27% van de tienerjongens, het er sterk mee eens was dat het delen van een deepfake naaktfoto van hen erger zou zijn dan het delen van een echte naaktfoto. Dit suggereert de onevenredige psychologische schade en angst voor reputatieschade waarmee meisjes te maken krijgen. Deze onbalans weerspiegelt bredere patronen van gendergerelateerd geweld, waarbij Vrouwen en meisjes worden niet alleen vaker het doelwit, maar ondervinden ook diepere sociale gevolgen. (Ringrose en Regehr, 2023).
'Naaktmakende' tools zijn nog steeds goedkoop en gemakkelijk te gebruiken.
'Naaktfoto'-websites blijven ook goedkoop, met veel sites die een bepaald aantal gratis afbeeldingen aanbieden of aantrekkelijke abonnementen met prijzen vanaf slechts 10 cent voor één afbeelding. De interfaces zijn bovendien gebruiksvriendelijk, met een simpele klik en uploadknop.

De Wet op de Online Veiligheid schiet tekort in de bescherming van kinderen tegen pornografische inhoud.
Volgens de Online Safety Act (2023) vallen apps en websites die naaktbeelden verspreiden onder de regelgeving van categorie 5. Deze regels vereisen dat elke dienst die pornografische inhoud aanbiedt, zeer effectieve leeftijdsbeschermingsmaatregelen implementeert, zodat kinderen normaal gesproken geen toegang tot de dienst kunnen krijgen.
In november 2025 heeft Ofcom Itai Tech Ltd een boete opgelegd. – een bedrijf dat een 'naaktsite' beheert en host – £50,000 boete voor het niet voldoen aan de leeftijdsverplichtingen om kinderen te beschermen tegen online pornografie.
Geen van de 21 websites die we hebben bekeken, vereiste echter dat gebruikers hun leeftijd bevestigden voordat ze de site konden bekijken.
Dit is zorgwekkend, gezien de onmiskenbare intentie van veel van deze diensten. Een site presenteert zichzelf als een "stripteaseshow met één klik (de digitale variant)", terwijl een andere gebruikers aanmoedigt om "de kracht van AI te ervaren en je seksuele fantasieën volledig te bevredigen". Ondanks deze expliciete positionering hebben kinderen nog steeds gemakkelijk toegang tot deze platforms, waardoor ze worden blootgesteld aan materiaal dat door Ofcom als pornografie is geclassificeerd.
De wet moet verder gaan.
Een jaar na ons oorspronkelijke rapport is de realiteit schrijnend: de tools die gebruikt worden om deepfakes van naaktfoto's te maken, zijn nog steeds gemakkelijk verkrijgbaar en openlijk beschikbaar, waardoor vrouwenhaat en geweld tegen vrouwen en meisjes in stand worden gehouden. Dit is wellicht nog zorgwekkender dan een jaar geleden, gezien de maatregelen die zijn ingevoerd in het kader van de Wet op de online veiligheid, die kinderen juist zouden moeten beschermen tegen toegang tot deze sites.
Dit onderzoek toont echter aan dat de huidige wetgeving niet geschikt is voor het beoogde doel. Daarom moet de overheid 'naaktmakende' tools in het Verenigd Koninkrijk verbieden..