Sommario
- Un nuovo rapporto di Internet Matters esorta il nuovo governo a reprimere l'"epidemia" di immagini sessuali generate dall'intelligenza artificiale, dopo che un sondaggio ha rivelato che il 13% degli adolescenti ha avuto un'esperienza con deepfake di nudo.
- La possibilità di un abuso incontrollato di deepfake di nudo ha seminato la paura nella vita di molti bambini; oltre la metà degli adolescenti (55%) ritiene che sarebbe peggio vedere creata e condivisa una loro immagine di nudo deepfake piuttosto che una vera.
- Internet Matters chiede di vietare gli strumenti di "nudificazione", poiché il rapporto avverte che è semplicemente troppo facile creare deepfake di nudo online.
- Le riforme raccomandate per il programma scolastico dovrebbero includere l'insegnamento ai bambini di come riconoscere i deepfake e di come utilizzare l'intelligenza artificiale in modo responsabile.
Internet Matters, la principale organizzazione britannica senza scopo di lucro che supporta la sicurezza online dei bambini, pubblica oggi (martedì 22 ottobre) un nuovo rapporto, “Il nuovo volto dell'abuso digitale: le esperienze dei bambini con i deepfake nudi”Il rapporto stima che quattro bambini in ogni classe di trenta abbiano avuto qualche esperienza di "deepfake nudificati" e invita il governo a introdurre una nuova legislazione per contrastare la crescita di falsi nudi generati dall'intelligenza artificiale (GenAI) di giovani, in particolare ragazze, vietando le cosiddette app di "nudificazione".
Il rapporto spiega i modi in cui GenAI ha reso veloce, semplice ed economico produrre immagini esplicite non consensuali di persone comuni, compresi i bambini. Sostiene che la legislazione attuale non sta tenendo il passo; i modelli di intelligenza artificiale utilizzati per generare immagini sessuali di bambini non sono attualmente illegali nel Regno Unito, nonostante il possesso di un'immagine sessuale deepfake di un bambino sia un reato penale.
Sebbene la tecnologia deepfake possa essere utilizzata per scopi positivi, come istruzione o formazione, le prove suggeriscono che la maggior parte dei deepfake sono creati per danneggiare, anche attraverso abusi sessuali, sfruttamento sessuale motivato finanziariamente, disinformazione e informazioni errate, truffe o frodi. Un tempo fenomeno ampiamente rivolto alle celebrità femminili, la creazione di false immagini di nudo è qualcosa che ora è più ampiamente accessibile e ha un impatto sui bambini, con le ragazze che hanno maggiori probabilità di essere il bersaglio.
Il rapporto Internet Matters di oggi evidenzia quanto siano diventati ampiamente disponibili e facili da usare gli strumenti di "nudificazione" online. Si stima che il 99% dei deepfake di nudo ritraggano ragazze e donne e che i modelli di "nudificazione" spesso non funzionino con immagini di ragazzi e uomini. Le immagini sessuali generate dall'intelligenza artificiale che ritraggono bambini sono state utilizzate per facilitare abusi sessuali tra bambini, abusi sessuali perpetrati da adulti e sextortion e possono avere un impatto profondo sulle vittime, portando all'insorgenza di ansia, depressione e pensieri suicidi.
I ragazzi adolescenti hanno utilizzato app di "nudificazione" per generare immagini sessualmente esplicite delle loro compagne di classe, spesso condividendo queste immagini su chat di gruppo e social media. Le ragazze hanno detto a Internet Matters che si sarebbero sentite inorridite e in imbarazzo e avrebbero temuto che un insegnante o un genitore potesse pensare che fossero autentiche.
Il rapporto odierno descrive in dettaglio un sondaggio rappresentativo a livello nazionale di Internet Matters su 2,000 genitori di bambini di età compresa tra 3 e 17 anni e 1,000 bambini di età compresa tra 9 e 17 anni nel Regno Unito, condotto da Opinium nel giugno 2024. Il sondaggio mostra:
- Un numero significativo di bambini ha avuto un'esperienza con un deepfake nudo. Nel complesso, il 13% dei bambini ha avuto un'esperienza con un deepfake nudo (incluso l'invio o la ricezione di uno, l'incontro con un deepfake nudo online, l'utilizzo di un'app di nudificazione o qualcuno che conoscono che ha utilizzato un'app di nudificazione). Ciò significa che circa mezzo milione (529,632) di adolescenti nel Regno Unito, o 4 adolescenti in una classe di 30, hanno avuto un'esperienza con un deepfake nudo.
- I ragazzi adolescenti (18%) hanno il doppio delle probabilità rispetto alle ragazze adolescenti (9%) di segnalare un'esperienza con un deepfake di nudo; tuttavia, i ragazzi hanno maggiori probabilità di essere creatori di deepfake di nudo e le ragazze hanno maggiori probabilità di esserne vittime.
- I ragazzi e i bambini vulnerabili hanno maggiori probabilità di aver interagito con un deepfake di nudo. Il 10% dei ragazzi di età compresa tra 13 e 17 anni si è imbattuto in un deepfake di nudo online, rispetto al 2% delle ragazze della stessa età. Un quarto dei bambini vulnerabili ha avuto un'esperienza con un deepfake di nudo, rispetto all'11% dei bambini non vulnerabili.
- Gli adolescenti ritengono che l'abuso di deepfake di nudo sia peggiore dell'abuso di immagini con foto reali. Oltre la metà degli adolescenti (55%) ritiene che sarebbe peggio avere un deepfake di nudo creato e condiviso di loro piuttosto che un'immagine reale.
- La maggior parte delle famiglie ha poca o nessuna conoscenza dei deepfake: quasi due terzi dei bambini (61%) e quasi la metà dei genitori (45%) affermano di non conoscere o comprendere il termine "deepfake".
- Le famiglie vogliono che il governo e le aziende tecnologiche facciano di più per contrastare i deepfake di nudo. L'84% degli adolescenti e l'80% dei genitori ritengono che gli strumenti per la nudità dovrebbero essere vietati a tutti nel Regno Unito, compresi gli adulti.
- Le famiglie concordano anche sul fatto che sia necessaria una maggiore istruzione sull'argomento dei deepfake. Solo l'11% degli adolescenti ha ricevuto lezioni sui deepfake a scuola e solo il 6% sui deepfake nudi. La stragrande maggioranza degli adolescenti (92%) e dei genitori (88%) ritiene che i bambini dovrebbero essere istruiti sui rischi dei deepfake a scuola.
Il rapporto sostiene sia una nuova legislazione che un'azione del settore per proteggere i bambini dagli abusi sessuali deepfake e sostiene che non ci si può aspettare che genitori e scuole proteggano i bambini da soli. Chiede azioni, tra cui:
- Il governo deve vietare gli strumenti di nudità come priorità in questa legislatura e rafforzare l'Online Safety Act con codici di condotta contro i danni di genere e gli abusi tra minori.
- Le aziende tecnologiche adotteranno misure più decise, rimuovendo l'accesso agli strumenti di nudizzazione sui motori di ricerca e sugli app store.
- Il curriculum nazionale sarà aggiornato per integrare l'insegnamento dell'alfabetizzazione mediatica critica.
Per coincidere e supportare il rapporto odierno, Internet Matters sta lanciando nuove risorse, tra cui consigli di esperti per i genitori su come proteggere i bambini dai deepfake.
Carolyn Bunting MBE, co-CEO di Internet Matters, ha dichiarato:
"L'intelligenza artificiale ha reso possibile produrre deepfake altamente realistici di bambini con il clic di pochi pulsanti. I deepfake di nudo sono una profonda invasione dell'autonomia e della dignità corporea e il loro impatto può essere devastante. Con strumenti di nudizzazione incentrati principalmente sulle donne, stanno avendo un impatto sproporzionato sulle ragazze.
"I bambini ci hanno raccontato della paura che hanno che questo possa accadere a loro senza alcuna conoscenza e da parte di persone che non conoscono. Vedono l'abuso di immagini deepfake come una violazione potenzialmente più grave perché è al di fuori del loro controllo.
"L'abuso di immagini deepfake può capitare a chiunque, in qualsiasi momento. I genitori non dovrebbero essere lasciati soli ad affrontare questo problema preoccupante. È tempo che il governo e l'industria agiscano per prevenirlo, prendendo di mira le aziende che producono e promuovono questi strumenti utilizzati per abusare dei bambini".