Questioni di Internet
Cerca

Un nuovo rapporto stima che mezzo milione di adolescenti del Regno Unito si siano imbattuti in deepfake di nudo generati dall'intelligenza artificiale

Team di Internet Matters | 22nd October, 2024
Primo piano delle mani di un bambino mentre usa uno smartphone.

Sommario

Internet Matters, la principale organizzazione britannica senza scopo di lucro che supporta la sicurezza online dei bambini, pubblica oggi (martedì 22 ottobre) un nuovo rapporto, “Il nuovo volto dell'abuso digitale: le esperienze dei bambini con i deepfake nudi”Il rapporto stima che quattro bambini in ogni classe di trenta abbiano avuto qualche esperienza di "deepfake nudificati" e invita il governo a introdurre una nuova legislazione per contrastare la crescita di falsi nudi generati dall'intelligenza artificiale (GenAI) di giovani, in particolare ragazze, vietando le cosiddette app di "nudificazione".

Il rapporto spiega i modi in cui GenAI ha reso veloce, semplice ed economico produrre immagini esplicite non consensuali di persone comuni, compresi i bambini. Sostiene che la legislazione attuale non sta tenendo il passo; i modelli di intelligenza artificiale utilizzati per generare immagini sessuali di bambini non sono attualmente illegali nel Regno Unito, nonostante il possesso di un'immagine sessuale deepfake di un bambino sia un reato penale.

Sebbene la tecnologia deepfake possa essere utilizzata per scopi positivi, come istruzione o formazione, le prove suggeriscono che la maggior parte dei deepfake sono creati per danneggiare, anche attraverso abusi sessuali, sfruttamento sessuale motivato finanziariamente, disinformazione e informazioni errate, truffe o frodi. Un tempo fenomeno ampiamente rivolto alle celebrità femminili, la creazione di false immagini di nudo è qualcosa che ora è più ampiamente accessibile e ha un impatto sui bambini, con le ragazze che hanno maggiori probabilità di essere il bersaglio.

Il rapporto Internet Matters di oggi evidenzia quanto siano diventati ampiamente disponibili e facili da usare gli strumenti di "nudificazione" online. Si stima che il 99% dei deepfake di nudo ritraggano ragazze e donne e che i modelli di "nudificazione" spesso non funzionino con immagini di ragazzi e uomini. Le immagini sessuali generate dall'intelligenza artificiale che ritraggono bambini sono state utilizzate per facilitare abusi sessuali tra bambini, abusi sessuali perpetrati da adulti e sextortion e possono avere un impatto profondo sulle vittime, portando all'insorgenza di ansia, depressione e pensieri suicidi.

I ragazzi adolescenti hanno utilizzato app di "nudificazione" per generare immagini sessualmente esplicite delle loro compagne di classe, spesso condividendo queste immagini su chat di gruppo e social media. Le ragazze hanno detto a Internet Matters che si sarebbero sentite inorridite e in imbarazzo e avrebbero temuto che un insegnante o un genitore potesse pensare che fossero autentiche.

Il rapporto odierno descrive in dettaglio un sondaggio rappresentativo a livello nazionale di Internet Matters su 2,000 genitori di bambini di età compresa tra 3 e 17 anni e 1,000 bambini di età compresa tra 9 e 17 anni nel Regno Unito, condotto da Opinium nel giugno 2024. Il sondaggio mostra:

Il rapporto sostiene sia una nuova legislazione che un'azione del settore per proteggere i bambini dagli abusi sessuali deepfake e sostiene che non ci si può aspettare che genitori e scuole proteggano i bambini da soli. Chiede azioni, tra cui:

Per coincidere e supportare il rapporto odierno, Internet Matters sta lanciando nuove risorse, tra cui consigli di esperti per i genitori su come proteggere i bambini dai deepfake.

Carolyn Bunting MBE, co-CEO di Internet Matters, ha dichiarato:

"L'intelligenza artificiale ha reso possibile produrre deepfake altamente realistici di bambini con il clic di pochi pulsanti. I deepfake di nudo sono una profonda invasione dell'autonomia e della dignità corporea e il loro impatto può essere devastante. Con strumenti di nudizzazione incentrati principalmente sulle donne, stanno avendo un impatto sproporzionato sulle ragazze.

"I bambini ci hanno raccontato della paura che hanno che questo possa accadere a loro senza alcuna conoscenza e da parte di persone che non conoscono. Vedono l'abuso di immagini deepfake come una violazione potenzialmente più grave perché è al di fuori del loro controllo.

"L'abuso di immagini deepfake può capitare a chiunque, in qualsiasi momento. I genitori non dovrebbero essere lasciati soli ad affrontare questo problema preoccupante. È tempo che il governo e l'industria agiscano per prevenirlo, prendendo di mira le aziende che producono e promuovono questi strumenti utilizzati per abusare dei bambini".

Circa l'autore

Team di Internet Matters

Team di Internet Matters

Internet Matters supporta genitori e professionisti con risorse complete e una guida esperta per aiutarli a navigare nel mondo in continua evoluzione della sicurezza Internet dei bambini.

Ricevi consigli personalizzati e supporto continuo

Il primo passo per garantire la sicurezza online di tuo figlio è ottenere la giusta guida. Abbiamo reso tutto più semplice con 'My Family's Digital Toolkit'.