Cos'è un deepfake?
La tecnologia Deepfake è un tipo di intelligenza artificiale che può diffondere disinformazione e disinformazione. Tieniti informato per contribuire a proteggere i bambini e i giovani online.

Guida in breve
Ottieni informazioni rapide e consigli sulla tecnologia deepfake.
Cosa significa?
I deepfake sono video o registrazioni audio che manipolano l'aspetto di una persona. Sembra quindi che facciano/dicano qualcosa che non hanno mai fatto.
Quali sono i rischi?
I deepfake hanno il potenziale per diffondere informazioni false o propaganda. Possono anche svolgere un ruolo nel cyberbullismo e nelle truffe.
Come proteggere i bambini
Aiutare i bambini a sviluppare il pensiero critico intrattenendo conversazioni regolari è una parte fondamentale per tenerli al sicuro dai pericoli.
Cos'è un deepfake?
I due tipi principali di deepfake sono video e audio. I deepfake video manipolano l'aspetto di una persona mentre i deepfake audio manipolano la sua voce.
I deepfake video e audio spesso lavorano insieme per creare contenuti fuorvianti. Le persone che creano questo contenuto falso potrebbero avere intenzioni innocenti. Ad esempio, potrebbero realizzare un video di una celebrità che esegue una danza divertente per far ridere la gente. Tuttavia, anche le migliori intenzioni possono portare a disinformazione e confusione.
Cosa sono i deepfake video?
I deepfake video sono il tipo più comune. Le persone che creano questi video utilizzano intelligenza artificiale per sostituire il viso o il corpo di qualcuno nelle riprese video esistenti. Gli esempi includono far dire a una celebrità qualcosa di controverso o un conduttore di notizie che riporta storie inventate.
In alcuni deepfake video, un doppiatore imiterà la celebrità o l'audio originale per fornire la nuova voce. In alternativa, il creatore potrebbe anche utilizzare la clonazione vocale.
Cos'è la clonazione vocale?
La clonazione vocale o i deepfake audio manipolano le voci anziché i video per sembrare come qualcun altro. Una truffa sempre più comune utilizza la clonazione vocale per prendere di mira le persone. I genitori potrebbero ricevere una chiamata frenetica dal proprio figlio che ha bisogno immediato di soldi per un determinato scopo. Queste truffe sono estremamente convincenti e hanno comportato perdite finanziarie.
Qualcuno potrebbe anche usare un deepfake audio per fare il prepotente con un'altra persona. Ad esempio, potrebbero imitare la voce di un compagno di classe per far sembrare che abbia detto qualcosa che non ha detto.
Indipendentemente dal tipo di deepfake, è importante ricordare che qualcuno deve utilizzare uno strumento di intelligenza artificiale per crearlo. I creatori di deepfake non sono sempre chiari, ma l’intelligenza artificiale non genera automaticamente questo contenuto.
Quali sono i potenziali danni?
I deepfake possono colpire le persone in vari modi e lasciare i bambini e i giovani esposti ai danni online.
I bambini e i giovani potrebbero avere difficoltà a riconoscere video e audio falsi, soprattutto perché la tecnologia diventa più sofisticata. Inoltre, la maggiore accessibilità agli strumenti di intelligenza artificiale potrebbe significare che più persone possono creare deepfake. Ciò può quindi aumentare la portata di potenziali danni.
Falsa informazione e propaganda
Gli utenti online possono utilizzare i deepfake per:
- diffondere informazioni false;
- rovinare la fiducia nelle figure pubbliche; O
- manipolare le conversazioni sulla politica e su altre questioni importanti.
I bambini stanno ancora sviluppando capacità di pensiero critico, quindi sono particolarmente vulnerabili nel credere a questo tipo di informazioni.
Danno alla reputazione
Alcuni rapporti collegano i deepfake al vendetta porno. In questi casi, l'autore del reato aggiunge la vittima a contenuti compromettenti come video o immagini pornografici.
L’autore del reato potrebbe quindi utilizzare questi deepfake per costringere le vittime. Ciò potrebbe includere la richiesta di un pagamento o di immagini reali per impedire loro di condividere i deepfake in modo più ampio.
Cyberbullismo, molestie e abusi
Gli autori dei reati potrebbero anche utilizzare i deepfake per intimidire gli altri creando video destinati a deriderli, intimidirli o metterli in imbarazzo.
La natura dei deepfake potrebbe rendere il bullismo più grave per la vittima. Potrebbe addirittura rasentare un comportamento abusivo.
A Rapporto 2023 della Internet Watch Foundation (IWF). ha avvertito dell’aumento del materiale pedopornografico generato dall’intelligenza artificiale (CSAM). Hanno identificato oltre 20,000 di queste immagini pubblicate su una di esse Web scuro Forum CSAM per un periodo di un mese. Hanno giudicato più della metà di questi come “molto probabilmente criminali”.
Sebbene questo numero non includa i deepfake, l'IWF afferma che "i contenuti video realistici in full-motion diventeranno un luogo comune". Notano inoltre che esistono già brevi video CSAM generati dall'intelligenza artificiale. “Questi diventeranno sempre più realistici e più diffusi”.
Perdite economiche e truffe
Alcuni deepfake audio o truffe sulla clonazione vocale fanno perdere denaro alle vittime. Anche i personaggi pubblici hanno utilizzato le loro sembianze per promuovere investimenti truffa.
Un esempio è lo YouTuber Mr Beast, che sembrava offrire ai suoi follower nuovi iPhone. Tuttavia, in realtà non era lui. YouTube è popolare tra i bambini e gli adolescenti. Quindi, i deepfake che imitano i loro creatori preferiti possono lasciarli aperti a queste truffe.
Bene, restiamo sulla tecnologia perché l'intelligenza artificiale sta alimentando un boom nei crimini informatici. Si prevede che il costo raggiungerà gli 8 trilioni di dollari quest'anno, più dell'economia del Giappone secondo una stima degli esperti di sicurezza informatica. Il più grande YouTuber del mondo è tra coloro la cui immagine video è stata manipolata dall'IA per promuovere una truffa, e persino i presentatori della BBC non sono immuni. Date un'occhiata a questo: i residenti britannici non hanno più bisogno di lavorare, questo è l'annuncio fatto dal nostro ospite di oggi, Elon Musk. Che svelerà un nuovo progetto di investimento mentre la connessione è in corso. Vi racconterò di più su questo progetto che apre nuove opportunità per i britannici di ricevere un ritorno sull'investimento. Sono stati investiti più di tre miliardi di dollari nel nuovo progetto, ed è già attivo e funzionante al momento.
Strano, vero? Sembra me, suona come me, potreste dire. È un po' difficile, vero, capire questa cosa? E così ho parlato con Stephanie Hair, è un'esperta di tecnologia indipendente, dovrei dire.
Stephanie Hair, un'esperta di tecnologia indipendente, viene intervistata sulla difficoltà di individuare i deepfake.
"Molte persone trovano così difficile individuare queste cose", dice Hair. "E non sei il primo e non penso che sarai l'ultimo, sfortunatamente, perché non c'è niente che impedisca che ciò accada. Non c'è nessuna regolamentazione che tenga qualcuno responsabile. Non sono sicuro da chi potresti trarre gioia se volessi fare causa, per esempio. Ora, siamo andati su Facebook e abbiamo detto che devi rimuoverlo, è falso e lo ha fatto... lo hanno fatto, Meta lo ha fatto da allora. Tuttavia, uh, ci sono molti altri video deep fake in giro che puntano gli spettatori verso truffe e la preoccupazione è che le persone in realtà si stanno separando dai propri soldi perché credono che siano autentici e questa è la preoccupazione, come fanno le persone a distinguere ciò che è reale da ciò che non lo è?"
"Sinceramente, non sono sicuro che cercare di capire dal tipo di limitazioni tecniche perché siamo stati in grado di vedere anche con il tuo video che c'erano alcune cose che non andavano bene. Ho detto molto chiaramente che non era legittimo. Quello che vuoi davvero fare è chiederti se sembra troppo bello per essere vero, probabilmente lo è. Se sembra un po' strano, probabilmente lo è. Ehm, non esiste un pranzo gratis."
"Certamente non c'è e ho twittato o condiviso un articolo a riguardo scritto dalla BBC che fornisce i migliori consigli su come individuare i video deep fake."
Come proteggere i bambini dai danni dei deepfake
Il modo migliore per proteggere i bambini online è fornire loro gli strumenti per individuare i danni e ottenere supporto. Ecco come puoi aiutarli a districarsi tra i deepfake.
La comunicazione aperta è fondamentale
Avvia conversazioni sulla sicurezza online presto e spesso. Discuti il concetto di deepfake. Spiega come le persone usano l'intelligenza artificiale per crearli e i potenziali pericoli che rappresentano.
Sviluppare l’alfabetizzazione mediatica dei bambini
Sviluppa le capacità di pensiero critico di tuo figlio incoraggiandolo a mettere in discussione ciò che vede e sente online. Insegna loro a cercare indizi che indicano che un video potrebbe essere falso. Gli esempi includono movimenti innaturali o incoerenze nella qualità audio e video.
Stabilisci confini e impostazioni
Sulla tua rete mobile o a banda larga domestica, imposta il controllo genitori per limitare l'esposizione a contenuti inappropriati. Fai lo stesso con le app utilizzate da tuo figlio. Quindi, lavorate insieme per definire i limiti su dove e quando utilizzare i dispositivi.
Parliamo di cittadinanza digitale
Aiuta tuo figlio a sviluppare un comportamento online positivo. Scoraggiateli dal creare o condividere contenuti falsi che coinvolgano altri, anche se lo fanno solo per scherzo.
Mostra loro come verificare le fonti
Discuti con tuo figlio dell'importanza di verificare le informazioni prima di condividerle. Incoraggiali a verificare la presenza di fonti affidabili e siti Web di verifica dei fatti prima di credere a qualsiasi cosa vedano online.
Mantieni le cose private
Parla ai tuoi figli della privacy online e spiega l'importanza di controllare la loro presenza online. Ricorda che chiunque potrebbe utilizzare le immagini pubbliche di tuo figlio per qualsiasi scopo. Quindi, limita le immagini che condividi di tuo figlio e insegnagli a limitare le foto che condivide di se stesso.
Guida Deepfake per i genitori
Ultimi articoli sull'AI
Trova ulteriore supporto con deepfake e altri tipi di contenuti AI con queste risorse.