Creare, possedere o condividere un'immagine deepfake di nudo di un bambino è illegale e classificato come materiale pedopornografico (CSAM)Tuttavia, gli strumenti che li creano non sono attualmente illegali e i bambini vi entrano sempre più spesso in contatto.
Vietare gli strumenti per la nudità
La nostra ricerca ha scoperto che l'84% degli adolescenti e l'80% dei genitori sono favorevoli al divieto di utilizzare strumenti per la nudità per tutti nel Regno Unito, compresi gli adulti.
Alla Camera dei Comuni, il deputato Jess Asato ha esortato il governo per ascoltare le voci dei genitori e dei bambini su questo tema, vietando le app che contengono immagini di nudità.
La Sig.ra Asato ha affermato: "L'aumento dei deepfake di nudo è un problema sempre più preoccupante, in particolare nelle scuole. La ricerca di Internet Matters ha dimostrato il danno che sta già causando ai bambini, e il potenziale che la tecnologia ha per danni ancora maggiori. Consentendo ai programmi di nudizzazione di rimanere facilmente accessibili, stiamo esponendo i nostri bambini al rischio di essere danneggiati e persino di essere criminalizzati. Ecco perché ho chiesto al governo di vietare gli strumenti e le app di nudizzazione".
Vietare gli strumenti per la nudità è stata una delle raccomandazioni chiave del nostro rapporto, Il nuovo volto dell'abuso digitale: le esperienze dei bambini con i deepfake di nudo.
L'onere di proteggere i bambini dagli abusi sessuali deepfake non può ricadere sulle scuole e sui genitori. L'industria e il governo devono intervenire. Vietare gli strumenti di nudizzazione aiuterebbe a proteggere i bambini dai danni online. Inoltre, sosterrebbe l'ambizioso obiettivo del governo di dimezzare la violenza contro donne e ragazze nel prossimo decennio.