O que é uma deepfake?
A tecnologia Deepfake é um tipo de inteligência artificial que pode espalhar desinformação e desinformação. Mantenha-se informado para ajudar a proteger crianças e jovens online.

Orientação em resumo
Obtenha informações e conselhos rápidos sobre a tecnologia deepfake.
O que isso significa?
Deepfakes são vídeos ou gravações de áudio que manipulam a imagem de uma pessoa. Eles então parecem fazer/dizer algo que nunca fizeram.
Quais são os riscos?
Deepfakes têm o potencial de espalhar informações ou propaganda falsas. Eles também podem desempenhar um papel no cyberbullying e nas fraudes.
Como proteger as crianças
Ajudar as crianças a desenvolver o pensamento crítico através de conversas regulares é uma parte fundamental para mantê-las protegidas de perigos.
O que é uma deepfake?
Os dois principais tipos de deepfakes são vídeo e áudio. Os deepfakes de vídeo manipulam a aparência de uma pessoa, enquanto os deepfakes de áudio manipulam sua voz.
Deepfakes de vídeo e áudio geralmente trabalham juntos para criar conteúdo enganoso. As pessoas que criam este conteúdo falso podem ter intenções inocentes. Por exemplo, eles podem fazer um vídeo de uma celebridade fazendo uma dança engraçada para fazer as pessoas rirem. No entanto, mesmo as melhores intenções podem levar à desinformação e à confusão.
O que são vídeos deepfakes?
Deepfakes de vídeo são o tipo mais comum. As pessoas que criam esses vídeos usam inteligência artificial para substituir o rosto ou corpo de alguém em imagens de vídeo existentes. Os exemplos incluem fazer uma celebridade dizer algo controverso ou um âncora relatar histórias inventadas.
Em alguns vídeos deepfakes, um dublador imita a celebridade ou o áudio original para fornecer a nova voz. Alternativamente, o criador também pode usar a clonagem de voz.
O que é clonagem de voz?
A clonagem de voz, ou deepfakes de áudio, manipula vozes em vez de vídeo para soar como outra pessoa. Um golpe cada vez mais comum usa clonagem de voz para atingir pessoas. Os pais podem receber imediatamente um telefonema frenético de seus filhos, que precisam de dinheiro para um determinado propósito. Esses golpes são extremamente convincentes e resultaram em perdas financeiras.
Alguém também pode usar um áudio deepfake para intimidar outra pessoa. Por exemplo, eles poderiam imitar a voz de um colega de classe para fazer parecer que eles disseram algo que não disseram.
Independentemente do tipo de deepfake, é importante lembrar que alguém precisa usar uma ferramenta de IA para criá-lo. Os criadores do Deepfake nem sempre são claros, mas a IA não gera esse conteúdo automaticamente.
Quais são os danos potenciais?
Deepfakes podem afetar as pessoas de várias maneiras e deixar crianças e jovens vulneráveis a danos online.
Crianças e jovens podem ter dificuldade em reconhecer vídeos e áudios falsos, especialmente à medida que a tecnologia se torna mais sofisticada. Além disso, a maior acessibilidade às ferramentas de IA pode significar que mais pessoas podem criar deepfakes. Isto pode, portanto, aumentar o alcance de danos potenciais.
Informações e propaganda falsas
Os usuários online podem usar deepfakes para:
- espalhar informações falsas;
- arruinar a confiança em figuras públicas; ou
- manipular conversas sobre política e outras questões importantes.
As crianças ainda estão a desenvolver competências de pensamento crítico, pelo que são particularmente vulneráveis a acreditar neste tipo de informação.
Danos à reputação
Alguns relatórios vinculam deepfakes à pornografia de vingança. Nesses casos, o perpetrador envolve a vítima em conteúdo comprometedor, como vídeos ou imagens pornográficas.
O perpetrador pode então usar esses deepfakes para coagir as vítimas. Isso pode incluir a exigência de pagamento ou imagens reais para impedi-los de compartilhar deepfakes de forma mais ampla.
Cyberbullying, assédio e abuso
Os perpetradores também podem usar deepfakes para intimidar outras pessoas, criando vídeos com o objetivo de zombar, intimidar ou constranger.
A natureza dos deepfakes pode tornar o bullying mais grave para a vítima. Pode até beirar o comportamento abusivo.
A Relatório da Internet Watch Foundation (IWF) de 2023 alertou sobre o aumento do material de abuso sexual infantil (CSAM) gerado por IA. Eles identificaram mais de 20,000 dessas imagens postadas em um Web escura Fórum CSAM durante um período de um mês. Eles julgaram mais da metade deles como “com maior probabilidade de serem criminosos”.
Embora esse número não inclua deepfakes, a IWF afirma que “conteúdo de vídeo realista e em movimento total se tornará comum”. Eles também observam que já existem vídeos curtos de CSAM gerados por IA. “Isso só vai se tornar mais realista e mais difundido.”
Perdas financeiras e fraudes
Alguns deepfakes de áudio ou golpes de clonagem de voz fazem com que as vítimas percam dinheiro. Figuras públicas também tiveram sua imagem usada para promover investimentos fraudulentos.
Um exemplo é o YouTuber Mr Beast, que parecia oferecer novos iPhones a seus seguidores. No entanto, na verdade não era ele. O YouTube é popular entre crianças e adolescentes. Portanto, deepfakes que imitam seus criadores favoritos podem deixá-los vulneráveis a esses golpes.
Bem, vamos ficar com a tecnologia porque a inteligência artificial está alimentando um boom no crime cibernético. O custo deve chegar a 8 trilhões de dólares este ano, mais do que a economia do Japão, de acordo com uma estimativa de especialistas em segurança cibernética. O maior YouTuber do mundo está entre aqueles que tiveram sua imagem de vídeo manipulada por IA para promover um golpe, e até mesmo os apresentadores da BBC não estão imunes. Dê uma olhada nisso: os residentes britânicos não precisam mais trabalhar, esse é o anúncio feito pelo nosso convidado de hoje, Elon Musk. Que revelará um novo projeto de investimento enquanto a conexão estiver acontecendo. Vou contar mais sobre esse projeto que abre novas oportunidades para os britânicos receberem um retorno sobre o investimento. Mais de três bilhões de dólares foram investidos no novo projeto, e ele já está em funcionamento no momento.
Estranho, não é? Parece comigo, soa como eu, você pode dizer. É meio difícil, não é, entender isso? E então eu falei com Stephanie Hair, ela é uma especialista em tecnologia independente, eu diria.
Stephanie Hair, especialista independente em tecnologia, é entrevistada sobre a dificuldade de detectar deepfakes.
“Muitas pessoas acham muito difícil identificar essas coisas”, diz Hair. “E você não é o primeiro e não acho que será o último, infelizmente, porque não há nada realmente para impedir que isso aconteça. Não há regulamentação realmente para responsabilizar ninguém. Não tenho certeza de quem você tiraria alguma alegria se quisesse processar, por exemplo. Agora, entramos no Facebook e dissemos que você precisa remover isso, é falso e fez... eles fizeram isso, o Meta fez isso desde então. No entanto, uh, há muitos outros vídeos deep fake por aí apontando os espectadores para golpes e a preocupação é que as pessoas estão realmente se desfazendo de seu próprio dinheiro porque acreditam que são genuínos e essa é a preocupação, como as pessoas distinguem o que é real do que não é?”
“Sinceramente, não tenho certeza se tentar dizer a partir do tipo de limitações técnicas, porque conseguimos ver até mesmo com seu vídeo que havia certas coisas que não estavam muito certas. Deixei bem claro que não era legítimo. O que você realmente quer fazer é se perguntar se parece bom demais para ser verdade, provavelmente é. Se parece um pouco estranho, provavelmente é. Uh, não existe almoço grátis.”
“Certamente não há, e eu tuitei ou compartilhei um artigo sobre isso escrito pela BBC que dá dicas importantes sobre como identificar vídeos deep fake.”
Como proteger as crianças de danos falsos
A melhor maneira de manter as crianças seguras online é dando a elas as ferramentas para identificar danos e obter suporte. Veja como você pode ajudá-las a navegar em deepfakes.
Comunicação aberta é fundamental
Inicie conversas sobre segurança online com antecedência e frequência. Discuta o conceito de deepfakes. Explique como as pessoas usam a IA para criá-los e os perigos potenciais que representam.
Desenvolver a literacia mediática das crianças
Desenvolva as habilidades de pensamento crítico de seu filho, incentivando-o a questionar o que vê e ouve online. Ensine-os a procurar pistas de que um vídeo possa ser falso. Os exemplos incluem movimentos não naturais ou inconsistências na qualidade de áudio e vídeo.
Definir limites e configurações
Na sua banda larga ou rede móvel doméstica, defina o controle dos pais para limitar a exposição a conteúdo impróprio. Faça o mesmo com os aplicativos que seu filho usa. Em seguida, trabalhem juntos para definir limites de onde e quando usar os dispositivos.
Fale sobre cidadania digital
Ajude seu filho a desenvolver um comportamento online positivo. Desencoraje-os de criar ou compartilhar conteúdo falso com outras pessoas, mesmo que o façam apenas como uma piada.
Mostre a eles como verificar as fontes
Discuta com seu filho a importância de verificar as informações antes de compartilhá-las. Incentive-os a procurar fontes confiáveis e sites de verificação de fatos antes de acreditar em qualquer coisa que vejam online.
Mantenha as coisas privadas
Converse com seus filhos sobre privacidade online e explique a importância de controlar sua presença online. Lembre-se de que qualquer pessoa pode usar imagens públicas de seu filho para qualquer finalidade. Portanto, limite as imagens que você compartilha de seu filho e ensine-o a limitar as fotos que compartilha de si mesmo.
Guia de deepfake para pais
Últimos artigos sobre IA
Encontre mais suporte com deepfakes e outros tipos de conteúdo de IA com estes recursos.