Un anno fa, Internet Matters ha pubblicato Il nuovo volto dell'abuso digitale, un rapporto che esplora la proliferazione di deepfake di nudo (immagini o video sessualmente espliciti generati dall'intelligenza artificiale) e le esperienze dei bambini con essi.
All'epoca, il nostro rapporto evidenziava diverse questioni chiave relative ai deepfake di nudo:
- Gli strumenti per "nudificare" sono ampiamente disponibili online, compaiono nei risultati dei principali motori di ricerca e sono economici e facili da usare.
- La stragrande maggioranza dei deepfake di nudo ritraggono donne e ragazze.
- Il 13% dei bambini si è già imbattuto in un deepfake di nudo, creando paura e ansia tra i più piccoli.
Sulla base di questa ricerca, abbiamo chiesto al governo di vietare le app e i siti web che "pubblicizzano" contenuti pornografici nel Regno Unito.
Nell'ultimo anno, il governo del Regno Unito ha adottato alcune misure per ridurre la circolazione di deepfake di nudo. Tra queste, la pubblicazione una legge che rende reato la creazione di deepfake sessualmente espliciti non consensuali e introducendo nuovi poteri per consentire l'esame dei modelli di intelligenza artificiale per garantire che siano in atto misure di salvaguardia per impedire loro di generare o diffondere materiale pedopornografico. Tuttavia, questa ricerca dimostra perché sono necessari ulteriori interventi.
In questo blog evidenziamo come, a distanza di un anno, una nuova ricerca riveli un quadro simile: gli strumenti per "nudificare" sono ancora ampiamente disponibili, economici e mirati prevalentemente al corpo femminile. C'è urgente bisogno di maggiori tutele.
sfondo
Capire i deepfake nudi
Deepfakes sono generati utilizzando strumenti di intelligenza artificiale (IA) e sono immagini, video o audio falsi che sembrano e si percepiscono come contenuti autentici.
Deepfake di nudo sono un tipo specifico di deepfake, in cui un'immagine o un video è stato manipolato o generato per rimuovere (o rimuovere parzialmente) i vestiti da qualcuno, utilizzando le sue caratteristiche e applicandole a un altro corpo. Si stima che il 98% dei video e delle immagini deepfake siano immagini sessuali non consensuali e quasi tutti i deepfake pornografici raffigurano donne.
L'intelligenza artificiale viene utilizzata anche per creare materiale pedopornografico (CSAM). Dati della Internet Watch Foundation (IWF) ha scoperto che le segnalazioni di materiale pedopornografico generato dall'intelligenza artificiale sono più che raddoppiate nell'ultimo anno, passando da 199 nel 2024 a 426 nel 2025.
I deepfake che contengono immagini sessuali di bambini sono illegali nel Regno Unito e sono classificati come materiale pedopornografico. Il possesso di qualsiasi forma di materiale pedopornografico è un reato.
Ai sensi dell'Online Safety Act (2023), la condivisione non consensuale di un'immagine intima di un adulto in formato deepfake costituisce reato. Come indicato in precedenza, il governo ha promesso ulteriori misure legislative per limitare la creazione di deepfake di nudo non consensuali.
Tuttavia, gli strumenti di "nudificazione" per creare queste immagini o video saranno ancora legali nel Regno Unito a partire da novembre 2025.
Abbiamo effettuato una serie di test controllati nel novembre 2025. Le ricerche sono state condotte su un computer desktop utilizzando una connessione a banda larga.
Ci siamo concentrati sui tre principali motori di ricerca che abbiamo esaminato nel nostro rapporto del 2024: Google, Bing e Yahoo. Abbiamo inserito tre frasi specifiche: "nudify AI", "undress AI" e "declothing AI" e abbiamo esaminato principalmente i risultati di ricerca della prima pagina (senza contare gli annunci o i risultati di ricerca sponsorizzati).
I controlli parentali sono stati attivati a livello di banda larga per garantire una base di filtraggio coerente per tutte le ricerche. Tuttavia, i singoli filtri di ricerca sono stati impostati su "sfocato" o "moderato". Questo ci ha permesso di osservare se materiale potenzialmente pericoloso o inappropriato potesse comunque comparire in un ambiente parzialmente filtrato, il che riflette un'esperienza utente più tipica.
Risultati
Strumenti e siti per la "nudificazione" sono ancora ampiamente disponibili
Nei tre principali motori di ricerca utilizzati nella ricerca, 21 siti distinti di "nudificazione" sono apparsi nella prima pagina dei risultati di ricerca, a dimostrazione di quanto questi strumenti siano ancora visibili e accessibili.
Quando si cerca "nudify AI", nessuno dei primi risultati su Google, Bing o Yahoo ha linkato direttamente a strumenti o siti web che "promuovono la nudità". Invece, il termine ha prodotto articoli che discutevano di strumenti di "promuovo la nudità", a dimostrazione della crescente consapevolezza di queste piattaforme.
Tuttavia, altri termini di ricerca hanno restituito link diretti a siti web di "nudificazione". La tabella seguente mostra il numero di siti web di "nudificazione" restituiti nella prima pagina dei risultati di ricerca per ciascun principale motore di ricerca.
| Termine di ricerca | Google (10 risultati nella prima pagina) | Bing (10 risultati nella prima pagina) | Yahoo (7 risultati nella prima pagina) |
|---|---|---|---|
| “IA declothing” | 8 | 8 | 7 |
| “svestire l’IA” | 9 | 2 | 2 |

I siti web che "nudificano" raffigurano in modo sproporzionato i corpi femminili
Dei 21 siti di "nudificazione" visitati, circa la metà (10) presentava nella home page immagini raffiguranti donne sessualizzate e svestite.

L'anno scorso abbiamo segnalato che molti strumenti di "nudificazione" non funzionano con immagini di ragazzi e uomini. Un sito web di "nudificazione" lo ha confermato nelle sue FAQ, affermando che il loro modello era attualmente "progettato specificamente per foto femminili".
Alcuni strumenti offrono agli utenti la possibilità di determinare le caratteristiche fisiche dei loro deepfake di nudo generati dall'intelligenza artificiale. In particolare, molti dei principali siti da noi analizzati offrivano la possibilità di "scegliere" la taglia del seno, evidenziando ancora una volta come questi strumenti siano creati pensando al corpo femminile.


Alcuni siti web consentono agli utenti di digitare in una casella di testo i prompt per la loro immagine generata dall'intelligenza artificiale. Questo è stato il caso di 4 dei 21 siti web di "nudificazione" che abbiamo esaminato. Su uno di questi siti, il prompt predefinito era "Una ragazza nuda senza reggiseno".

L'addestramento di queste modelle sui corpi femminili e il loro utilizzo per generare immagini sessuali non consensuali di donne e ragazze è frutto di misoginia e perpetua la violenza di genere. Sebbene alcuni siti includano nelle loro FAQ dichiarazioni che suggeriscono che il consenso è necessario per l'utilizzo dell'immagine di un'altra persona, non abbiamo riscontrato alcun meccanismo all'interno del processo di caricamento per verificarlo o applicarlo. In pratica, questo crea solo l'illusione del consenso, anziché la reale protezione richiesta dalla legge del Regno Unito.
Gli effetti di tutto ciò sono visibili nelle esperienze dei bambini. La nostra precedente ricerca ha rilevato che il 38% delle ragazze adolescenti, rispetto al 27% dei ragazzi adolescenti, era fermamente convinto che condividere un nudo in deepfake sarebbe stato peggio di un nudo reale. Ciò suggerisce il danno psicologico sproporzionato e la paura di un danno reputazionale che le ragazze devono affrontare. Questo squilibrio riflette modelli più ampi di violenza di genere, in cui Le donne e le ragazze non solo sono prese di mira più spesso, ma subiscono anche conseguenze sociali più profonde (Ringrose e Regehr, 2023).
Gli strumenti per la "nudificazione" sono ancora economici e facili da usare
Anche i siti di "nudificazione" rimangono economici, con molti che offrono un certo numero di generazioni di immagini gratuite o piani tariffari generosi con prezzi a partire da 10 centesimi per generare un'immagine. Le loro interfacce sono anche facili da navigare, con un semplice clic e un pulsante di caricamento.

L'Online Safety Act non riesce a proteggere i bambini dai contenuti pornografici
Ai sensi dell'Online Safety Act (2023), le app e i siti web che "offrono nudità" rientrano nell'ambito delle normative di Categoria 5. Queste norme impongono a qualsiasi servizio che offra contenuti pornografici di implementare misure di controllo dell'età altamente efficaci, in modo che i bambini non possano normalmente accedere al servizio.
Nel novembre 2025, Ofcom ha multato Itai Tech Ltd – una società che gestisce e ospita un sito di "nudità" – 50,000 sterline per non aver rispettato gli obblighi di garanzia dell'età per proteggere i bambini dalla pornografia online.
Tuttavia, nessuno dei 21 siti da noi esaminati richiedeva agli utenti di verificare la propria età prima di visualizzarli.
Ciò è preoccupante, dato che l'intento di molti di questi servizi è inequivocabile. Un sito si promuove come "Spogliarello con un clic (di tipo digitale)", mentre un altro incoraggia gli utenti a "Sperimentare la potenza dell'intelligenza artificiale e soddisfare appieno le proprie fantasie sessuali". Nonostante questo posizionamento esplicito, i bambini possono comunque accedere a queste piattaforme con facilità, esponendosi a materiale che l'Ofcom ha classificato come pornografia.
La legge deve andare oltre
A un anno dal nostro rapporto originale, la realtà è cruda: gli strumenti utilizzati per generare deepfake di nudo rimangono facilmente reperibili e in bella vista, perpetuando misoginia e violenza contro donne e ragazze. Questo è forse ancora più preoccupante ora di quanto non lo fosse un anno fa, dato che sono entrate in vigore misure ai sensi dell'Online Safety Act che dovrebbero proteggere i minori dall'accesso a questi siti.
Tuttavia, questa ricerca dimostra che la legislazione attuale non è adatta allo scopo, Ecco perché il governo deve vietare gli strumenti per "nudificare" nel Regno Unito.