MENU

O que é uma deepfake?

A tecnologia Deepfake é um tipo de inteligência artificial que pode espalhar desinformação e desinformação. Mantenha-se informado para ajudar a proteger crianças e jovens online.

Uma mãe segura um tablet rodeado de ícones de segurança.

Orientação em resumo

Obtenha informações e conselhos rápidos sobre a tecnologia deepfake.

O que isso significa?

Deepfakes são vídeos ou gravações de áudio que manipulam a imagem de uma pessoa. Eles então parecem fazer/dizer algo que nunca fizeram.

Aprenda sobre deepfakes

Quais são os riscos?

Deepfakes têm o potencial de espalhar informações ou propaganda falsas. Eles também podem desempenhar um papel no cyberbullying e nas fraudes.

Aprenda sobre os danos

Como proteger as crianças

Ajudar as crianças a desenvolver o pensamento crítico através de conversas regulares é uma parte fundamental para mantê-las protegidas de perigos.

Veja dicas de segurança

O que é uma deepfake?

Os dois principais tipos de deepfakes são vídeo e áudio. Os deepfakes de vídeo manipulam a aparência de uma pessoa, enquanto os deepfakes de áudio manipulam sua voz.

Deepfakes de vídeo e áudio geralmente trabalham juntos para criar conteúdo enganoso. As pessoas que criam este conteúdo falso podem ter intenções inocentes. Por exemplo, eles podem fazer um vídeo de uma celebridade fazendo uma dança engraçada para fazer as pessoas rirem. No entanto, mesmo as melhores intenções podem levar à desinformação e à confusão.

O que são vídeos deepfakes?

Deepfakes de vídeo são o tipo mais comum. As pessoas que criam esses vídeos usam inteligência artificial para substituir o rosto ou corpo de alguém em imagens de vídeo existentes. Os exemplos incluem fazer uma celebridade dizer algo controverso ou um âncora relatar histórias inventadas.

Em alguns vídeos deepfakes, um dublador imita a celebridade ou o áudio original para fornecer a nova voz. Alternativamente, o criador também pode usar a clonagem de voz.

O que é clonagem de voz?

A clonagem de voz, ou deepfakes de áudio, manipula vozes em vez de vídeo para soar como outra pessoa. Um golpe cada vez mais comum usa clonagem de voz para atingir pessoas. Os pais podem receber imediatamente um telefonema frenético de seus filhos, que precisam de dinheiro para um determinado propósito. Esses golpes são extremamente convincentes e resultaram em perdas financeiras.

Alguém também pode usar um áudio deepfake para intimidar outra pessoa. Por exemplo, eles poderiam imitar a voz de um colega de classe para fazer parecer que eles disseram algo que não disseram.

Independentemente do tipo de deepfake, é importante lembrar que alguém precisa usar uma ferramenta de IA para criá-lo. Os criadores do Deepfake nem sempre são claros, mas a IA não gera esse conteúdo automaticamente.

Quais são os danos potenciais?

Deepfakes podem afetar as pessoas de várias maneiras e deixar crianças e jovens vulneráveis ​​a danos online.

Crianças e jovens podem ter dificuldade em reconhecer vídeos e áudios falsos, especialmente à medida que a tecnologia se torna mais sofisticada. Além disso, a maior acessibilidade às ferramentas de IA pode significar que mais pessoas podem criar deepfakes. Isto pode, portanto, aumentar o alcance de danos potenciais.

Informações e propaganda falsas 

Os usuários online podem usar deepfakes para:

  • espalhar informações falsas;
  • arruinar a confiança em figuras públicas; ou
  • manipular conversas sobre política e outras questões importantes.

As crianças ainda estão a desenvolver competências de pensamento crítico, pelo que são particularmente vulneráveis ​​a acreditar neste tipo de informação.

Danos à reputação

Alguns relatórios vinculam deepfakes à pornografia de vingança. Nesses casos, o perpetrador envolve a vítima em conteúdo comprometedor, como vídeos ou imagens pornográficas.

O perpetrador pode então usar esses deepfakes para coagir as vítimas. Isso pode incluir a exigência de pagamento ou imagens reais para impedi-los de compartilhar deepfakes de forma mais ampla. Saiba mais sobre esta prática com nosso guia para sextorção.

Cyberbullying, assédio e abuso

Os perpetradores também podem usar deepfakes para intimidar outras pessoas, criando vídeos com o objetivo de zombar, intimidar ou constranger.

A natureza dos deepfakes pode tornar o bullying mais grave para a vítima. Pode até beirar o comportamento abusivo. Aprenda como pode ser o abuso de criança contra criança.

A Relatório da Internet Watch Foundation (IWF) de 2023 alertou sobre o aumento do material de abuso sexual infantil (CSAM) gerado por IA. Eles identificaram mais de 20,000 dessas imagens postadas em um Web escura Fórum CSAM durante um período de um mês. Eles julgaram mais da metade deles como “com maior probabilidade de serem criminosos”.

Embora esse número não inclua deepfakes, a IWF afirma que “conteúdo de vídeo realista e em movimento total se tornará comum”. Eles também observam que já existem vídeos curtos de CSAM gerados por IA. “Isso só vai se tornar mais realista e mais difundido.”

Perdas financeiras e fraudes

Alguns deepfakes de áudio ou golpes de clonagem de voz fazem com que as vítimas percam dinheiro. Figuras públicas também tiveram sua imagem usada para promover investimentos fraudulentos.

Um exemplo é o YouTuber Mr Beast, que parecia oferecer novos iPhones a seus seguidores. No entanto, na verdade não era ele. O YouTube é popular entre crianças e adolescentes. Portanto, deepfakes que imitam seus criadores favoritos podem deixá-los vulneráveis ​​a esses golpes.

Exemplos de vídeos fraudulentos deepfake
Exibir transcrição de vídeo
Bem, vamos ficar com a tecnologia porque a inteligência artificial está alimentando um boom no crime cibernético. Espera-se que o custo atinja 8 biliões de dólares este ano, mais do que a economia do Japão, de acordo com uma estimativa de especialistas em segurança cibernética. O maior YouTuber do mundo está entre aqueles que tiveram sua imagem de vídeo manipulada pela IA para promover um golpe, e mesmo os apresentadores da BBC não estão imunes.

Veja só: os residentes britânicos não precisam mais trabalhar, é o anúncio feito pelo nosso convidado de hoje, Elon Musk. Que vai revelar um novo projeto de investimento enquanto a conexão estiver em andamento. Contarei mais sobre este projeto que abre novas oportunidades para os britânicos receberem retorno do investimento. Mais de três bilhões de dólares foram investidos no novo projeto, que já está em funcionamento.

Estranho, não é? Parece comigo, parece comigo, você pode dizer. É meio difícil, não é, entender isso? E então falei com Stephanie Hair, ela é uma especialista independente em tecnologia, devo dizer.

Stephanie Hair, especialista independente em tecnologia, é entrevistada sobre a dificuldade de detectar deepfakes.

“Muitas pessoas acham muito difícil detectar essas coisas”, diz Hair. “E você não é o primeiro e não acho que será o último, infelizmente, porque não há nada que realmente impeça que isso aconteça. Não há realmente nenhuma regulamentação que responsabilize alguém. Não tenho certeza de quem você ficaria feliz se quisesse processar, por exemplo. Agora, entramos no Facebook e dissemos que você precisa tirar isso do ar, é falso e aconteceu... eles fizeram isso, Meta fez isso desde então. No entanto, há muitos outros vídeos falsos profundos por aí apontando os espectadores para fraudes e a preocupação é que as pessoas estão realmente abrindo mão de seu próprio dinheiro porque acreditam que são genuínos e esta é a preocupação, como as pessoas diferenciam o que é real e o que não é?``

``Honestamente, não tenho certeza se estou tentando dizer devido às limitações técnicas, porque pudemos ver, mesmo com o seu vídeo, que havia certas coisas que não estavam certas. Deixei bem claro que não era legítimo. O que você realmente quer fazer é se perguntar se parece bom demais para ser verdade, provavelmente é. Se parece um pouco estranho, provavelmente é. Uh, não existe almoço grátis.``

``Certamente não há e eu twittei ou compartilhei um artigo sobre isso escrito pela BBC que dá dicas importantes sobre como detectar vídeos profundamente falsos.``

Como proteger as crianças de danos falsos

A melhor maneira de manter as crianças seguras online é fornecer-lhes as ferramentas para detectar danos e obter apoio. Veja como você pode ajudá-los a navegar pelos deepfakes.

Comunicação aberta é fundamental

Inicie conversas sobre segurança online com antecedência e frequência. Discuta o conceito de deepfakes. Explique como as pessoas usam a IA para criá-los e os perigos potenciais que representam.

Desenvolver a literacia mediática das crianças

Desenvolva as habilidades de pensamento crítico de seu filho, incentivando-o a questionar o que vê e ouve online. Ensine-os a procurar pistas de que um vídeo possa ser falso. Os exemplos incluem movimentos não naturais ou inconsistências na qualidade de áudio e vídeo.

APRENDA SOBRE INFORMAÇÕES FALSAS

Definir limites e configurações

Na sua banda larga ou rede móvel doméstica, defina o controle dos pais para limitar a exposição a conteúdo impróprio. Faça o mesmo com os aplicativos que seu filho usa. Em seguida, trabalhem juntos para definir limites de onde e quando usar os dispositivos.

OBTER MODELO DE ACORDO FAMILIAR

Fale sobre cidadania digital

Ajude seu filho a desenvolver um comportamento online positivo. Desencoraje-os de criar ou compartilhar conteúdo falso com outras pessoas, mesmo que o façam apenas como uma piada.

VEJA AS PRINCIPAIS MANEIRAS DA INTERNET

Mostre a eles como verificar as fontes

Discuta com seu filho a importância de verificar as informações antes de compartilhá-las. Incentive-os a procurar fontes confiáveis ​​e sites de verificação de fatos antes de acreditar em qualquer coisa que vejam online.

Mantenha as coisas privadas

Converse com seus filhos sobre privacidade online e explique a importância de controlar sua presença online. Lembre-se de que qualquer pessoa pode usar imagens públicas de seu filho para qualquer finalidade. Portanto, limite as imagens que você compartilha de seu filho e ensine-o a limitar as fotos que compartilha de si mesmo.

Artigos e guias mais recentes sobre IA

Encontre mais suporte com deepfakes e outros tipos de conteúdo de IA com estes recursos.

Isso foi útil?
Diga-nos como podemos melhorá-lo