Resumo
- Novo relatório da Internet Matters pede que o novo governo reprima a "epidemia" de imagens sexuais geradas por IA após pesquisa revelar que 13% dos adolescentes tiveram uma experiência com deepfakes nus.
- A possibilidade de abuso descontrolado de nudez deepfake semeou medo na vida de muitas crianças; mais da metade dos adolescentes (55%) acredita que seria pior ter uma nudez deepfake criada e compartilhada deles do que uma imagem real.
- O Internet Matters pede a proibição de ferramentas de "nudização", já que o relatório alerta que é muito fácil criar deepfakes de nudez online.
- As reformas recomendadas para o currículo escolar devem incluir ensinar as crianças a identificar deepfakes e a usar a tecnologia de IA de forma responsável.
A Internet Matters, a principal organização sem fins lucrativos da Grã-Bretanha que apoia a segurança online das crianças, está publicando hoje (terça-feira, 22 de outubro) um novo relatório, “A nova face do abuso digital: experiências de crianças com nude deep fakes”. O relatório estima que quatro crianças em cada turma de trinta tiveram alguma experiência com "deepfakes nudificados" e pede ao governo que introduza uma nova legislação para combater o crescimento de nus falsos de jovens, especialmente meninas, por meio de IA generativa (GenAI), proibindo os chamados aplicativos de "nudificação".
O relatório explica as maneiras pelas quais a GenAI tornou rápido, simples e barato produzir imagens explícitas não consensuais de pessoas comuns – incluindo crianças. Ele argumenta que a legislação atual não está acompanhando o ritmo; os modelos de IA usados para gerar imagens sexuais de crianças atualmente não são ilegais no Reino Unido, apesar da posse de uma imagem sexual deepfake de uma criança ser uma infração criminal.
Embora a tecnologia deepfake possa ser usada para propósitos positivos, como educação ou treinamento, evidências sugerem que a maioria dos deepfakes é criada para causar danos, incluindo abuso sexual, exploração sexual com motivação financeira, desinformação, golpes ou fraudes. Antes um fenômeno amplamente voltado para celebridades femininas, a criação de imagens falsas de nudez é algo que agora é mais amplamente acessível e impacta crianças, sendo as meninas o alvo mais provável.
O relatório Internet Matters de hoje destaca o quão amplamente disponíveis e fáceis de usar as ferramentas de "nudificação" se tornaram para uso online. Estima-se que 99% dos deepfakes nus apresentam meninas e mulheres, e modelos "nudificadores" geralmente não funcionam em imagens de meninos e homens. Imagens sexuais geradas por IA com crianças têm sido usadas para facilitar o abuso sexual entre crianças, abuso sexual perpetrado por adultos e sextortion e podem impactar as vítimas profundamente, levando ao início de ansiedade, depressão e pensamentos suicidas.
Adolescentes têm usado aplicativos de "nudificação" para gerar imagens sexualmente explícitas de suas colegas de classe, muitas vezes compartilhando essas imagens em chats de grupo e mídias sociais. Meninas disseram à Internet Matters que se sentiriam horrorizadas e envergonhadas e temeriam que um professor ou pai pensasse que elas eram genuínas.
O relatório de hoje detalha uma pesquisa nacionalmente representativa da Internet Matters com 2,000 pais de crianças de 3 a 17 anos e 1,000 crianças de 9 a 17 anos no Reino Unido, conduzida pela Opinium em junho de 2024. A pesquisa mostra:
- Um número significativo de crianças tem algum tipo de experiência com um deepfake nu. No geral, 13% das crianças tiveram uma experiência com um deepfake nu (incluindo enviar ou receber um, encontrar um deepfake nu online, usar um aplicativo de nudismo ou alguém que elas conhecem ter usado um aplicativo de nudismo). Isso significa que cerca de meio milhão (529,632) de adolescentes no Reino Unido, ou 4 adolescentes em uma classe de 30, tiveram uma experiência com um deepfake nu.
- Adolescentes (18%) têm duas vezes mais probabilidade do que adolescentes (9%) de relatar uma experiência com um nude deepfake, no entanto, os meninos têm mais probabilidade de serem criadores de nudes deepfake, e as meninas têm mais probabilidade de serem vítimas.
- Meninos e crianças vulneráveis são mais propensos a se envolver com um deepfake nu. 10% dos meninos de 13 a 17 anos se depararam com um deepfake nu online, em comparação com 2% das meninas da mesma idade. Um quarto das crianças vulneráveis teve uma experiência com um deepfake nu, em comparação com 11% das crianças não vulneráveis.
- Adolescentes veem abuso de nudez deepfake como pior do que abuso de imagem com fotos reais. Mais da metade dos adolescentes (55%) acredita que seria pior ter um nude deepfake criado e compartilhado deles do que uma imagem real.
- A maioria das famílias tem pouca ou nenhuma compreensão sobre deepfakes, com quase dois terços das crianças (61%) e quase metade dos pais (45%) dizendo que não conhecem ou não entendem o termo "deepfake".
- As famílias querem que o governo e as empresas de tecnologia façam mais para combater os deepfakes de nudez. 84% dos adolescentes e 80% dos pais acreditam que ferramentas de nudez devem ser proibidas para todos no Reino Unido, incluindo adultos.
- As famílias também concordam que mais educação é necessária sobre o tópico de deepfakes. Apenas 11% dos adolescentes foram ensinados sobre deepfakes na escola, e apenas 6% sobre deepfakes nus. A esmagadora maioria dos adolescentes (92%) e pais (88%) acham que as crianças devem ser ensinadas sobre os riscos dos deepfakes na escola.
O relatório defende tanto uma nova legislação quanto uma ação da indústria para proteger as crianças do abuso sexual deepfake e argumenta que não se pode esperar que os pais e as escolas protejam as crianças sozinhos. Ele pede ação, incluindo:
- O Governo deve proibir ferramentas de nudez como prioridade neste Parlamento e fortalecer a Lei de Segurança Online com códigos de prática sobre danos de gênero e abuso de crianças.
- Empresas de tecnologia tomarão medidas mais firmes removendo o acesso a ferramentas de nudez em mecanismos de busca e lojas de aplicativos.
- O currículo nacional deve ser atualizado para integrar o ensino de alfabetização midiática crítica.
Para coincidir e apoiar o relatório de hoje, a Internet Matters está lançando novos recursos, incluindo conselhos de especialistas para pais sobre como proteger crianças de deepfakes.
Carolyn Bunting MBE, co-CEO da Internet Matters, disse:
“A IA tornou possível produzir deepfakes altamente realistas de crianças com o clique de alguns botões. Deepfakes nus são uma invasão profunda da autonomia e dignidade corporal, e seu impacto pode ser devastador. Com ferramentas de nudismo amplamente focadas em mulheres, elas estão tendo um impacto desproporcional em meninas.
“Crianças nos contaram sobre o medo que têm de que isso possa acontecer com elas sem nenhum conhecimento e por pessoas que elas não conhecem. Elas veem o abuso de imagens deepfake como uma violação potencialmente maior porque está além do controle delas.
“O abuso de imagens deepfake pode acontecer com qualquer pessoa, a qualquer momento. Os pais não devem ser deixados sozinhos para lidar com essa questão preocupante. É hora do governo e da indústria tomarem medidas para preveni-lo, reprimindo as empresas que produzem e promovem essas ferramentas que são usadas para abusar de crianças.”