Genitori e figli dicono: vietate le app che nudizzano

Un bambino tiene in mano e usa il suo smartphone.

Nell'ultimo anno abbiamo assistito al rapido aumento dei deepfake di nudo, con strumenti di nudizzazione facilmente accessibili online.

Ciò sta creando ansia e paura tra i giovani, che sono favorevoli al divieto degli strumenti utilizzati per crearli.

Cosa sono i deepfake di nudo?

Con l'avvento delle tecnologie AI, sono emerse online nuove minacce per i bambini, tra cui i deepfake di nudo. I deepfake di nudo sono immagini sessuali create con strumenti di nudizzazione AI da immagini di persone reali, tra cui bambini.

L'anno scorso, i contenuti sessuali deepfake online sono aumentati di oltre il 400%. La nostra ricerca ha inoltre scoperto che circa mezzo milione di bambini (13%) hanno già sperimentato un deepfake di nudo online. Ciò include averne trovato uno su un sito Web, averne ricevuto uno da un amico o aver utilizzato loro stessi un'app di nudizzazione.

Ora è veloce, economico e facile generare immagini e video di nudo altamente convincenti con persone reali con un clic di pochi pulsanti. Le piattaforme si sono impegnate a rimuovere gli strumenti di nudizzazione quando li incontrano. Tuttavia, rimangono accessibili sugli app store e comuni nei risultati di ricerca dei motori di ricerca tradizionali.

Come i deepfake nudi hanno un impatto sui bambini, in particolare sulle bambine

I nudi deepfake possono avere un impatto profondo sui bambini, anche attraverso abusi e molestie. Le vittime di questi abusi possono soffrire di PTSD, depressione, ansia e persino pensieri suicidi come conseguenza. Possono anche temere la violenza fisica, se un autore condivide i propri dati personali insieme all'immagine.

Infatti, la maggior parte degli adolescenti (55%) ritiene che avere un'immagine deepfake di nudo creata e condivisa sarebbe peggio di un'immagine reale. Quando è stato chiesto il perché, gli adolescenti hanno citato:

  • sentire la perdita di autonomia corporea
  • preoccupazione che non sapessero che esisteva, chi l'aveva realizzato o perché
  • la paura che avrebbe potuto causare. Questo includeva amici, insegnanti e genitori che pensavano fosse reale e li vedevano in modo diverso. Erano anche preoccupati che l'immagine potesse travisarli completamente.

Sebbene questo problema riguardi sia i ragazzi che le ragazze, il 99% dei deepfake di nudo realizzati sono di donne e ragazze. Inoltre, molti strumenti di nudizzazione non funzionano su immagini di ragazzi e uomini. La nostra ricerca suggerisce che i deepfake di nudo stanno diventando un altro strumento utilizzato per commettere violenza contro donne e ragazze.

Cosa deve cambiare

Creare, possedere o condividere un'immagine deepfake di nudo di un bambino è illegale e classificato come materiale pedopornografico (CSAM)Tuttavia, gli strumenti che li creano non sono attualmente illegali e i bambini vi entrano sempre più spesso in contatto.

Vietare gli strumenti per la nudità

La nostra ricerca ha scoperto che l'84% degli adolescenti e l'80% dei genitori sono favorevoli al divieto di utilizzare strumenti per la nudità per tutti nel Regno Unito, compresi gli adulti.

Alla Camera dei Comuni, il deputato Jess Asato ha esortato il governo per ascoltare le voci dei genitori e dei bambini su questo tema, vietando le app che contengono immagini di nudità.

La Sig.ra Asato ha affermato: "L'aumento dei deepfake di nudo è un problema sempre più preoccupante, in particolare nelle scuole. La ricerca di Internet Matters ha dimostrato il danno che sta già causando ai bambini, e il potenziale che la tecnologia ha per danni ancora maggiori. Consentendo ai programmi di nudizzazione di rimanere facilmente accessibili, stiamo esponendo i nostri bambini al rischio di essere danneggiati e persino di essere criminalizzati. Ecco perché ho chiesto al governo di vietare gli strumenti e le app di nudizzazione".

Vietare gli strumenti per la nudità è stata una delle raccomandazioni chiave del nostro rapporto, Il nuovo volto dell'abuso digitale: le esperienze dei bambini con i deepfake di nudo.

L'onere di proteggere i bambini dagli abusi sessuali deepfake non può ricadere sulle scuole e sui genitori. L'industria e il governo devono intervenire. Vietare gli strumenti di nudizzazione aiuterebbe a proteggere i bambini dai danni online. Inoltre, sosterrebbe l'ambizioso obiettivo del governo di dimezzare la violenza contro donne e ragazze nel prossimo decennio.

Risorse per sostenere le famiglie

Nel frattempo, vogliamo aiutare le famiglie a essere meglio protette online. Esplora le seguenti risorse create per supportarle nell'affrontare questa nuova preoccupante tendenza.

Messaggi recenti