Samenvatting
- Nieuw rapport van Internet Matters dringt er bij de nieuwe regering op aan om de 'epidemie' van door AI gegenereerde seksuele beelden aan te pakken, nadat uit onderzoek blijkt dat 13% van de tieners ervaring heeft gehad met deepfakes met naaktfoto's.
- De mogelijkheid van ongecontroleerd misbruik van deepfakes in naaktfoto's heeft bij veel kinderen angst gezaaid. Meer dan de helft van de tieners (55%) is van mening dat het erger zou zijn als er een deepfake-naaktfoto van hen wordt gemaakt en gedeeld dan een echte foto.
- Internet Matters roept op tot een verbod op 'nudifying'-tools. Het rapport waarschuwt dat het te gemakkelijk is om online naaktdeepfakes te maken.
- Aanbevolen hervormingen van het schoolcurriculum zouden onder andere moeten inhouden dat kinderen leren hoe ze deepfakes kunnen herkennen en hoe ze AI-technologie verantwoord kunnen gebruiken.
Internet Matters, de toonaangevende non-profitorganisatie van Groot-Brittannië die de online veiligheid van kinderen ondersteunt, publiceert vandaag (dinsdag 22 oktober) een nieuw rapport, “Het nieuwe gezicht van digitaal misbruik: ervaringen van kinderen met naaktdeepfakes”Het rapport schat dat vier kinderen in elke klas van dertig enige ervaring hebben met 'nudified deepfakes' en roept de regering op om nieuwe wetgeving in te voeren om de groei van generatieve AI (GenAI) nepnaakten van jongeren, met name meisjes, aan te pakken door zogenaamde 'nudifying'-apps te verbieden.
Het rapport legt uit hoe GenAI het snel, eenvoudig en goedkoop heeft gemaakt om niet-consensuele expliciete beelden van gewone mensen te produceren, inclusief kinderen. Het betoogt dat de huidige wetgeving geen gelijke tred houdt; de AI-modellen die worden gebruikt om seksuele beelden van kinderen te genereren, zijn momenteel niet illegaal in het VK, ondanks dat het bezit van een deepfake seksuele afbeelding van een kind een strafbaar feit is.
Hoewel deepfake-technologie kan worden gebruikt voor positieve doeleinden, zoals educatie of training, suggereert bewijs dat de meerderheid van deepfakes is gemaakt om schade toe te brengen, inclusief via seksueel misbruik, financieel gemotiveerde seksuele uitbuiting, mis- en desinformatie, oplichting of fraude. Ooit een fenomeen dat zich grotendeels richtte op vrouwelijke beroemdheden, is het maken van neppe naaktfoto's iets dat nu breder toegankelijk is en kinderen beïnvloedt, waarbij meisjes het vaakst het doelwit zijn.
Het Internet Matters-rapport van vandaag benadrukt hoe algemeen beschikbaar en gemakkelijk te gebruiken 'nudifying'-tools online zijn geworden. Naar schatting 99% van de naaktdeepfakes bevat meisjes en vrouwen, en 'nudifying'-modellen werken vaak niet op afbeeldingen van jongens en mannen. Door AI gegenereerde seksuele afbeeldingen met kinderen zijn gebruikt om seksueel misbruik van kinderen, seksueel misbruik door volwassenen en sextortion te vergemakkelijken en kunnen slachtoffers diepgaand beïnvloeden, wat kan leiden tot angst, depressie en suïcidale gedachten.
Tienerjongens hebben 'nudificatie'-apps gebruikt om seksueel expliciete afbeeldingen van hun vrouwelijke klasgenoten te genereren, en deze afbeeldingen vaak te delen in groepsgesprekken en op sociale media. Meisjes vertelden Internet Matters dat ze zich geschokt en beschaamd zouden voelen en bang zouden zijn dat een leraar of ouder zou denken dat ze oprecht waren.
Het rapport van vandaag beschrijft een landelijk representatief onderzoek van Internet Matters onder 2,000 ouders van kinderen van 3 tot 17 jaar en 1,000 kinderen van 9 tot 17 jaar in het Verenigd Koninkrijk, uitgevoerd door Opinium in juni 2024. Het onderzoek toont het volgende aan:
- Een aanzienlijk aantal kinderen heeft ervaring met een naaktdeepfake. In totaal heeft 13% van de kinderen ervaring met een naaktdeepfake (inclusief het versturen of ontvangen ervan, online een naaktdeepfake tegenkomen, een nudificerende app gebruiken of iemand die ze kennen die een nudificerende app heeft gebruikt). Dit betekent dat ongeveer een half miljoen (529,632) tieners in het VK, of 4 tieners in een klas van 30, ervaring hebben gehad met een naaktdeepfake.
- Tienerjongens (18%) geven twee keer zoveel aan een ervaring te hebben gehad met een deepfake naaktfoto als tienermeisjes (9%). Jongens zijn echter vaker de makers van deepfake naaktfoto's en meisjes zijn vaker het slachtoffer.
- Jongens en kwetsbare kinderen hebben vaker te maken gehad met een naaktdeepfake. 10% van de jongens van 13-17 jaar is online een naaktdeepfake tegengekomen, vergeleken met 2% van de meisjes van dezelfde leeftijd. Een kwart van de kwetsbare kinderen heeft ervaring gehad met een naaktdeepfake, vergeleken met 11% van de niet-kwetsbare kinderen.
- Tieners vinden naakt deepfake misbruik erger dan misbruik van afbeeldingen met echte foto's. Meer dan de helft van de tieners (55%) gelooft dat het erger zou zijn als er een deepfake naaktfoto van hen wordt gemaakt en gedeeld dan een echte afbeelding.
- De meeste gezinnen hebben weinig tot geen kennis van deepfakes. Bijna twee derde van de kinderen (61%) en bijna de helft van de ouders (45%) zegt de term 'deepfake' niet te kennen of te begrijpen.
- Gezinnen willen dat de overheid en technologiebedrijven meer doen om naaktdeepfakes aan te pakken. 84% van de tieners en 80% van de ouders is van mening dat nudizing tools voor iedereen in het Verenigd Koninkrijk verboden moeten worden, inclusief volwassenen.
- Families zijn het er ook over eens dat er meer educatie nodig is over het onderwerp deepfakes. Slechts 11% van de tieners heeft op school les gehad over deepfakes, en slechts 6% over naaktdeepfakes. De overgrote meerderheid van de tieners (92%) en ouders (88%) vindt dat kinderen op school les moeten krijgen over de risico's van deepfakes.
Het rapport pleit voor zowel nieuwe wetgeving als actie van de industrie om kinderen te beschermen tegen deepfake seksueel misbruik en stelt dat van ouders en scholen niet verwacht kan worden dat ze alleen kinderen beschermen. Het roept op tot actie, waaronder:
- De regering moet nudizing-tools als prioriteit in dit parlement verbieden en de Online Safety Act versterken met gedragscodes inzake gendergerelateerd geweld en kindermisbruik.
- Techbedrijven nemen strengere maatregelen door de toegang tot naakttools in zoekmachines en app-winkels te blokkeren.
- Het nationale curriculum moet worden bijgewerkt om onderwijs over kritische mediageletterdheid te integreren.
Ter ondersteuning van het rapport van vandaag lanceert Internet Matters nieuwe bronnen, waaronder deskundig advies voor ouders over het beschermen van kinderen tegen deepfakes.
Carolyn Bunting MBE, co-CEO van Internet Matters, zei:
“AI heeft het mogelijk gemaakt om zeer realistische deepfakes van kinderen te produceren met een paar klikken op de knop. Naakte deepfakes zijn een diepgaande inbreuk op de lichamelijke autonomie en waardigheid, en hun impact kan levensverwoestend zijn. Nudificerende tools die zich grotendeels richten op vrouwen, hebben een onevenredig grote impact op meisjes.
“Kinderen hebben ons verteld over de angst die ze hebben dat dit hen kan overkomen zonder dat ze het weten en door mensen die ze niet kennen. Ze zien deepfake-image-misbruik als een potentieel grotere schending omdat het buiten hun controle ligt.
“Het misbruik van deepfake-afbeeldingen kan iedereen overkomen, op elk moment. Ouders moeten niet alleen gelaten worden om met dit zorgwekkende probleem om te gaan. Het is tijd dat de overheid en de industrie actie ondernemen om dit te voorkomen door hard op te treden tegen de bedrijven die deze tools produceren en promoten die worden gebruikt om kinderen te misbruiken.”