Wat is uitkleed-AI? Begeleiding voor ouders en verzorgers

Een meisje zit met een droevige uitdrukking bij haar telefoon.

Kunstmatige intelligentie blijft toenemen in mogelijkheden en technologie. Undress AI is een voorbeeld dat jongeren bloot kan stellen aan schade.

Ontdek wat het is, zodat u uw kind online beter kunt beschermen.

Wat is 'uitkleed-AI'?

Undress AI beschrijft een type tool dat kunstmatige intelligentie gebruikt om kleding van individuen in afbeeldingen te verwijderen.

Hoewel de manier waarop elke app of website werkt kan variëren, bieden ze allemaal deze vergelijkbare service. Hoewel het gemanipuleerde beeld niet het echte naakte lichaam van het slachtoffer laat zien, kan het dit wel impliceren.

Daders die gebruik maken van uitkleed-AI-tools kunnen de beelden voor zichzelf houden of op grotere schaal delen. Ze kunnen deze afbeeldingen gebruiken seksuele dwang (sextortion), pesten/misbruik of als vorm van wraakporno.

Kinderen en jongeren lopen extra schade op als iemand hen met deze technologie 'uitkleedt'. A rapport van de Internet Watch Foundation vond meer dan 11,000 potentieel criminele, door AI gegenereerde afbeeldingen van kinderen op een dark web-forum gewijd aan materiaal over seksueel misbruik van kinderen (CSAM). Zij beoordeelden ongeveer 3,000 afbeeldingen als crimineel.

Het IWF zei dat het ook “veel voorbeelden heeft gevonden van door AI gegenereerde afbeeldingen met bekende slachtoffers en beroemde kinderen.” Generatieve AI kan alleen overtuigende beelden creëren als het leert van accuraat bronmateriaal. In wezen zouden AI-tools die CSAM genereren, moeten leren van echte beelden van kindermisbruik.

Risico's waar u op moet letten

Undress AI-tools gebruiken suggestieve taal om gebruikers aan te trekken. Als zodanig is de kans groter dat kinderen hun nieuwsgierigheid volgen op basis van deze taal.

Kinderen en jongeren begrijpen de wet misschien nog niet. Als zodanig kunnen ze moeite hebben om schadelijke middelen te onderscheiden van middelen die onschadelijk plezier bevorderen.

Ongepaste inhoud en gedrag

De nieuwsgierigheid en nieuwigheid van een uitkleed-AI-tool zou kinderen hieraan kunnen blootstellen ongepaste inhoud. Omdat er geen 'echt' naaktbeeld wordt getoond, kunnen ze denken dat het oké is om deze tools te gebruiken. Als ze de afbeelding vervolgens 'voor de lol' met hun vrienden delen, overtreden ze waarschijnlijk de wet zonder het te weten.

Zonder tussenkomst van een ouder of verzorger kunnen ze het gedrag voortzetten, zelfs als het anderen pijn doet.

Privacy- en veiligheidsrisico's

Voor veel legitieme generatieve AI-tools is betaling of abonnement vereist om afbeeldingen te maken. Dus als een deepnude-website gratis is, kan deze afbeeldingen van lage kwaliteit produceren of een lakse beveiliging hebben. Als een kind een geklede afbeelding van zichzelf of een vriend uploadt, kan de site of app deze misbruiken. Dit geldt ook voor het 'diepnaakt' dat het creëert.

Het is onwaarschijnlijk dat kinderen die deze tools gebruiken de Servicevoorwaarden of het Privacybeleid lezen, waardoor ze risico lopen dat ze het misschien niet begrijpen.

Creëren van materiaal met seksueel misbruik van kinderen (CSAM)

Het IWF meldde ook dat gevallen van 'zelf gegenereerde' CSAM die online circuleert, toegenomen met 417% van 2019 tot 2022. Merk op dat de term 'zelf gegenereerd' niet perfect is, aangezien misbruikers in de meeste gevallen kinderen dwingen deze afbeeldingen te maken.

Door het gebruik van uitkleed-AI kunnen kinderen echter onbewust door AI gegenereerde CSAM creëren. Als ze een foto van zichzelf of een ander kind uploaden, kan iemand die foto 'nudificeren' en breder delen.

Cyberpesten, misbruik en intimidatie

Net als andere vormen van deepfakes kunnen mensen AI-tools of 'deepnudes' gebruiken om anderen te pesten. Dit kan onder meer inhouden dat iemand beweert dat hij een naaktfoto van zichzelf heeft gestuurd, terwijl dat niet het geval is. Of het kan het gebruik van AI inhouden om een ​​naakt te creëren met kenmerken die gepest worden en vervolgens bespotten.

Het is belangrijk om dat te onthouden het delen van naaktfoto's van leeftijdsgenoten is zowel illegaal als beledigend.

Hoe wijdverspreid is 'diepnude'-technologie?

Uit onderzoek blijkt dat het gebruik van dit soort AI-tools toeneemt, vooral om kleding te verwijderen van vrouwelijke slachtoffers.

Eén uitgeklede AI-site zegt dat hun technologie “niet bedoeld was voor gebruik met mannelijke proefpersonen.” Dit komt omdat ze de tool hebben getraind met behulp van vrouwelijke beelden, wat geldt voor de meeste van dit soort AI-tools. Bij de door AI gegenereerde CSAM die de Internet Watch Foundation onderzocht, waren in 99.6% van de gevallen ook vrouwelijke kinderen te zien.

Onderzoek van Graphika benadrukte een toename van 2000% van verwijzingslinkspam voor uitkleed-AI-diensten in 2023. Uit het rapport bleek ook dat 34 van deze providers in één maand tijd meer dan 24 miljoen unieke bezoekers naar hun websites ontvingen. Ze voorspellen “nieuwe gevallen van online schade”, waaronder sextortion en CSAM.

Daders zullen zich waarschijnlijk blijven richten op meisjes en vrouwen in plaats van op jongens en mannen, vooral als deze instrumenten vooral leren van vrouwelijke beelden.

Wat zegt de Britse wet?

Tot voor kort overtreden degenen die seksueel expliciete deepfake-afbeeldingen maakten de wet pas als het afbeeldingen van kinderen waren.

Het ministerie van Justitie heeft echter een nieuwe wet deze week dat zal dit veranderen. Volgens de nieuwe wet zullen degenen die zonder hun toestemming seksueel expliciete deepfake-beelden van volwassenen maken, vervolgd worden. De veroordeelden zullen ook worden geconfronteerd met een ‘onbeperkte boete’.

Dit is in tegenspraak met A verklaring afgelegd begin 2024. Het zei dat het creëren van een deepfake intieme afbeelding “niet voldoende schadelijk of verwijtbaar was om een ​​strafbaar feit te vormen.”

Vorig jaar konden daders nog creëren en deel deze afbeeldingen (van volwassenen) zonder de wet te overtreden. echter, de Wet op online veiligheid maakte het in januari 2024 illegaal om door AI gegenereerde intieme afbeeldingen zonder toestemming te delen.

Over het algemeen zou deze wet betrekking moeten hebben op elk beeld dat seksueel van aard is. Dit omvat ook de onderwerpen met naakte of gedeeltelijk naakte onderwerpen.

Eén ding om op te merken is echter dat deze wet gebaseerd is op de intentie om schade te veroorzaken. Iemand die een seksueel expliciete deepfake creëert, moet dit dus doen om het slachtoffer te vernederen of anderszins schade toe te brengen. Het probleem hiermee is dat het vrij moeilijk is om opzet te bewijzen. Als zodanig kan het moeilijk zijn om partijen die seksueel expliciete deepfakes creëren daadwerkelijk te vervolgen.

Hoe kinderen te beschermen tegen uitkleden AI

Of u zich nu zorgen maakt over het gebruik van AI-tools voor uw kind, of dat u slachtoffer wordt, hier volgen enkele acties die u kunt ondernemen om uw kind te beschermen.

Voer het eerste gesprek

Ruim een ​​kwart van de Britse kinderen meldt dat ze op 11-jarige leeftijd pornografie hebben gezien. Een op de tien zegt dat ze voor het eerst porno zagen op 9-jarige leeftijd. Nieuwsgierigheid zou ertoe kunnen leiden dat kinderen ook op zoek gaan naar uitkleed-AI-tools. Voordat ze dat punt bereiken, is het dus belangrijk om te praten over de juiste inhoud, positieve relaties en gezond gedrag.

ZIE PORNO GESPREKGIDS

Stel website- en app-limieten in

Blokkeer websites en stel inhoudsbeperkingen in voor breedband- en mobiele netwerken, maar ook voor apparaten en apps. Dit verkleint de kans dat ze ongepaste inhoud tegenkomen terwijl ze online verkennen. Het bezoeken van deze websites kan deel uitmaken van een breder gesprek met u.

KIES EEN GIDS

Bouw aan de digitale veerkracht van kinderen

Digitale veerkracht is een vaardigheid die kinderen moeten ontwikkelen. Het betekent dat ze potentiële online schade kunnen identificeren en indien nodig actie kunnen ondernemen. Ze weten hoe ze de inhoud die ze tegenkomen moeten rapporteren, blokkeren en kritisch moeten nadenken. Dit houdt onder meer in dat ze weten wanneer ze hulp nodig hebben van hun ouder, verzorger of andere vertrouwde volwassene.

ZIE DIGITALE VEERKRACHT TOOLKIT

Hulpbronnen voor verdere ondersteuning

Leer meer over kunstmatige intelligentie en vind middelen om slachtoffers van uitkledende AI te ondersteunen.

Was dit nuttig?
Vertel ons hoe we het kunnen verbeteren

Recente berichten