Criar, possuir ou compartilhar uma imagem deepfake nua de uma criança é ilegal e classificado como material de abuso sexual infantil (CSAM). No entanto, as ferramentas que os criam atualmente não são ilegais e as crianças estão cada vez mais entrando em contato com elas.
Proibição de ferramentas de nudismo
Nossa pesquisa descobriu que 84% dos adolescentes e 80% dos pais apoiam a proibição de ferramentas de nudez para todos no Reino Unido, incluindo adultos.
Na Câmara dos Comuns, a deputada Jess Asato apelou ao Governo ouvir as vozes dos pais e das crianças sobre esta questão, proibindo aplicativos de nudez.
A Sra. Asato disse: “O aumento de deepfakes de nudez é uma questão cada vez mais preocupante – particularmente nas escolas. Uma pesquisa da Internet Matters mostrou o dano que isso já está causando às crianças – e o potencial que a tecnologia tem para danos ainda maiores. Ao permitir que programas de nudismo permaneçam facilmente acessíveis, estamos colocando nossas crianças em risco de serem prejudicadas e até mesmo de serem criminalizadas. É por isso que pedi ao Governo que proíba ferramentas e aplicativos de nudismo.”
A proibição de ferramentas de nudez foi uma das principais recomendações do nosso relatório, A nova face do abuso digital: experiências de crianças com deepfakes nus.
O ônus de proteger as crianças do abuso sexual deepfake não pode recair sobre as escolas e os pais. A indústria e o governo devem intervir. Proibir ferramentas de nudez ajudaria a proteger as crianças de danos online. Além disso, apoiaria a meta ambiciosa do governo de reduzir pela metade a violência contra mulheres e meninas na próxima década.