I bambini e i giovani potrebbero non comprendere ancora la legge. Pertanto, potrebbero avere difficoltà a distinguere gli strumenti dannosi da quelli che promuovono il divertimento innocuo.
Contenuti e comportamenti inappropriati
La curiosità e la novità di uno strumento di intelligenza artificiale per spogliarsi potrebbero esporre i bambini contenuto inappropriato. Poiché non mostra un'immagine di nudo "reale", potrebbero pensare che sia giusto utilizzare questi strumenti. Se poi condividono l'immagine con i loro amici "per ridere", probabilmente infrangono la legge senza saperlo.
Senza l'intervento di un genitore o di un tutore, potrebbero continuare a comportarsi in questo modo, anche se ferisce gli altri.
Rischi per la privacy e la sicurezza
Molti strumenti legittimi di intelligenza artificiale generativa richiedono un pagamento o un abbonamento per creare immagini. Pertanto, se un sito Web di deepnude è gratuito, potrebbe produrre immagini di bassa qualità o avere una sicurezza scarsa. Se un bambino carica un'immagine vestita di se stesso o di un amico, il sito o l'app potrebbero abusarne. Ciò include il "nudo profondo" che crea.
È improbabile che i bambini che utilizzano questi strumenti leggano i Termini di servizio o l'Informativa sulla privacy, quindi corrono il rischio di non comprendere.
Creazione di materiale pedopornografico (CSAM)
L'IWF ha anche riferito che i casi di Il materiale pedopornografico "autogenerato" circolante online è aumentato del 417% dal 2019 al 2022. Si noti che il termine “autogenerato” è imperfetto poiché, nella maggior parte dei casi, gli autori di abusi costringono i bambini a creare queste immagini.
Tuttavia, con l’uso dell’intelligenza artificiale per spogliarsi, i bambini potrebbero inconsapevolmente creare materiale pedopornografico generato dall’intelligenza artificiale. Se caricassero una foto vestita di se stessi o di un altro bambino, qualcuno potrebbe “nudificare” quell'immagine e condividerla più ampiamente.
Cyberbullismo, abusi e molestie
Proprio come altri tipi di deepfake, le persone possono utilizzare strumenti di intelligenza artificiale o "deepnudes" per intimidire gli altri. Ciò potrebbe includere l'affermazione che un collega ha inviato un'immagine di se stesso nudo quando non l'ha fatto. Oppure potrebbe includere l’uso dell’intelligenza artificiale per creare un nudo con caratteristiche che i bulli poi deridono.
È importante ricordarlo condividere immagini di nudo di coetanei è illegale e offensivo.