Cos'è l'intelligenza artificiale per spogliarsi? Guida per genitori e tutori

Una ragazza siede con il telefono con un'espressione triste.

L’intelligenza artificiale continua ad aumentare in capacità e tecnologia. Undress AI è un esempio che potrebbe esporre i giovani al pericolo.

Scopri di cosa si tratta per poter proteggere meglio tuo figlio online.

Che cos'è "spogliare l'IA"?

Undress AI descrive un tipo di strumento che utilizza l'intelligenza artificiale per rimuovere i vestiti delle persone nelle immagini.

Sebbene il funzionamento di ciascuna app o sito Web possa variare, tutti offrono questo servizio simile. Sebbene l'immagine manipolata non mostri effettivamente il vero corpo nudo della vittima, può implicarlo.

Gli autori dei reati che utilizzano strumenti di IA per spogliare potrebbero tenere le immagini per sé o condividerle più ampiamente. Potrebbero usare queste immagini per coercizione sessuale (sestorsione), bullismo/abuso o come forma di vendetta porno.

I bambini e i giovani subiscono ulteriori danni se qualcuno li "spoglia" utilizzando questa tecnologia. UN rapporto della Internet Watch Foundation ha trovato oltre 11,000 immagini di bambini potenzialmente criminali generate dall'intelligenza artificiale su un forum del dark web dedicato al materiale pedopornografico (CSAM). Hanno valutato circa 3,000 immagini come criminali.

L’IWF ha affermato di aver trovato anche “molti esempi di immagini generate dall’intelligenza artificiale con vittime conosciute e bambini famosi”. L’intelligenza artificiale generativa può creare immagini convincenti solo se apprende da materiale sorgente accurato. In sostanza, gli strumenti di intelligenza artificiale che generano materiale pedopornografico dovrebbero imparare da immagini reali che mostrano abusi sui minori.

Rischi a cui prestare attenzione

Gli strumenti di intelligenza artificiale di Undress utilizzano un linguaggio suggestivo per attirare gli utenti. Pertanto, è più probabile che i bambini seguano la loro curiosità basata su questo linguaggio.

I bambini e i giovani potrebbero non comprendere ancora la legge. Pertanto, potrebbero avere difficoltà a distinguere gli strumenti dannosi da quelli che promuovono il divertimento innocuo.

Contenuti e comportamenti inappropriati

La curiosità e la novità di uno strumento di intelligenza artificiale per spogliarsi potrebbero esporre i bambini contenuto inappropriato. Poiché non mostra un'immagine di nudo "reale", potrebbero pensare che sia giusto utilizzare questi strumenti. Se poi condividono l'immagine con i loro amici "per ridere", probabilmente infrangono la legge senza saperlo.

Senza l'intervento di un genitore o di un tutore, potrebbero continuare a comportarsi in questo modo, anche se ferisce gli altri.

Rischi per la privacy e la sicurezza

Molti strumenti legittimi di intelligenza artificiale generativa richiedono un pagamento o un abbonamento per creare immagini. Pertanto, se un sito Web di deepnude è gratuito, potrebbe produrre immagini di bassa qualità o avere una sicurezza scarsa. Se un bambino carica un'immagine vestita di se stesso o di un amico, il sito o l'app potrebbero abusarne. Ciò include il "nudo profondo" che crea.

È improbabile che i bambini che utilizzano questi strumenti leggano i Termini di servizio o l'Informativa sulla privacy, quindi corrono il rischio di non comprendere.

Creazione di materiale pedopornografico (CSAM)

L'IWF ha anche riferito che i casi di Il materiale pedopornografico "autogenerato" circolante online è aumentato del 417% dal 2019 al 2022. Si noti che il termine “autogenerato” è imperfetto poiché, nella maggior parte dei casi, gli autori di abusi costringono i bambini a creare queste immagini.

Tuttavia, con l’uso dell’intelligenza artificiale per spogliarsi, i bambini potrebbero inconsapevolmente creare materiale pedopornografico generato dall’intelligenza artificiale. Se caricassero una foto vestita di se stessi o di un altro bambino, qualcuno potrebbe “nudificare” quell'immagine e condividerla più ampiamente.

Cyberbullismo, abusi e molestie

Proprio come altri tipi di deepfake, le persone possono utilizzare strumenti di intelligenza artificiale o "deepnudes" per intimidire gli altri. Ciò potrebbe includere l'affermazione che un collega ha inviato un'immagine di se stesso nudo quando non l'ha fatto. Oppure potrebbe includere l’uso dell’intelligenza artificiale per creare un nudo con caratteristiche che i bulli poi deridono.

È importante ricordarlo condividere immagini di nudo di coetanei è illegale e offensivo.

Quanto è diffusa la tecnologia del "deepnude"?

La ricerca mostra che l’uso di questi tipi di strumenti di intelligenza artificiale è in aumento, soprattutto per rimuovere i vestiti dalle vittime di sesso femminile.

Un sito di undress AI afferma che la loro tecnologia “non era destinata all’uso con soggetti di sesso maschile”. Questo perché hanno addestrato lo strumento utilizzando immagini femminili, il che è vero per la maggior parte di questi tipi di strumenti di intelligenza artificiale. Nel CSAM generato dall’intelligenza artificiale analizzato dalla Internet Watch Foundation, il 99.6% di essi presentava anche bambine.

Ricerca da Graphika ha evidenziato un aumento del 2000% dello spam nei link di riferimento per i servizi di undress AI nel 2023. Il rapporto ha inoltre rilevato che 34 di questi fornitori hanno ricevuto oltre 24 milioni di visitatori unici sui loro siti Web in un mese. Prevedono “ulteriori casi di danni online”, tra cui sextortion e CSAM.

Gli autori dei reati probabilmente continueranno a prendere di mira le ragazze e le donne piuttosto che i ragazzi e gli uomini, soprattutto se questi strumenti imparano principalmente dalle immagini femminili.

Cosa dice la legge britannica?

Fino a poco tempo fa, coloro che creavano immagini deepfake sessualmente esplicite non infrangevano la legge a meno che le immagini non riguardassero bambini.

Tuttavia, il Ministero della Giustizia ha annunciato a nuova legge questa settimana questo cambierà la situazione. Secondo la nuova legge, coloro che creano immagini deepfake sessualmente esplicite di adulti senza il loro consenso saranno perseguiti. I condannati dovranno affrontare anche una “multa illimitata”.

Ciò contraddice a dichiarazione rilasciata all’inizio del 2024. Ha affermato che la creazione di un’immagine intima deepfake “non era sufficientemente dannosa o colpevole da costituire un reato”.

Fino all’anno scorso, gli autori del reato potevano creare più condividere queste immagini (di adulti) senza infrangere la legge. comunque, il Legge sulla sicurezza online ha reso illegale la condivisione di immagini intime generate dall'intelligenza artificiale senza consenso nel gennaio 2024.

In generale, questa legge dovrebbe coprire qualsiasi immagine di natura sessuale. Ciò include quelli che presentano soggetti nudi o parzialmente nudi.

Una cosa da notare, tuttavia, è che questa legge si basa sull’intenzione di causare danni. Pertanto, una persona che crea un deepfake sessualmente esplicito deve farlo per umiliare o danneggiare in altro modo la vittima. Il problema è che è abbastanza difficile dimostrare l’intento. Pertanto, potrebbe essere difficile perseguire effettivamente i soggetti che creano deepfake sessualmente espliciti.

Come proteggere i bambini dall'intelligenza artificiale spogliata

Che tu sia preoccupato per tuo figlio che utilizza strumenti di intelligenza artificiale o che ne diventa una vittima, ecco alcune azioni da intraprendere per proteggerlo.

Fai la prima conversazione

Oltre un quarto dei bambini del Regno Unito riferisce di aver visto materiale pornografico all’età di 11 anni. Uno su dieci afferma di aver visto il porno per la prima volta a 9 anni. La curiosità potrebbe portare i bambini a cercare anche strumenti di intelligenza artificiale per spogliarsi. Quindi, prima di arrivare a questo punto, è importante parlare di contenuti appropriati, relazioni positive e comportamenti sani.

VEDI LE GUIDE ALLA CONVERSAZIONE PORNO

Imposta i limiti di siti Web e app

Blocca i siti Web e imposta restrizioni sui contenuti su reti mobili e a banda larga, nonché su dispositivi e app. Ciò ridurrà la possibilità che si imbattino in contenuti inappropriati mentre esplorano online. L'accesso a questi siti Web può far parte di una conversazione più ampia con te.

SCEGLI UNA GUIDA

Costruire la resilienza digitale dei bambini

La resilienza digitale è una competenza che i bambini devono sviluppare. Ciò significa che possono identificare potenziali danni online e agire se necessario. Sanno come segnalare, bloccare e pensare in modo critico ai contenuti che incontrano. Ciò include sapere quando hanno bisogno di aiuto da parte dei loro genitori, tutori o altri adulti di fiducia.

VEDI IL TOOLKIT PER LA RESILIENZA DIGITALE

Risorse per ulteriore supporto

Scopri di più sull'intelligenza artificiale e trova risorse per supportare le vittime dell'IA spogliata.

È stato utile?
Dicci come possiamo migliorarlo

Messaggi recenti