As crianças e os jovens podem ainda não compreender a lei. Como tal, podem ter dificuldade em separar as ferramentas prejudiciais daquelas que promovem a diversão inofensiva.
Conteúdo e comportamento inadequados
A curiosidade e a novidade de uma ferramenta de IA para tirar a roupa podem expor as crianças a conteúdo inapropriado. Como não mostra uma imagem de nudez “real”, eles podem pensar que não há problema em usar essas ferramentas. Se eles compartilharem a imagem com seus amigos 'para rir', provavelmente estarão infringindo a lei sem saber.
Sem a intervenção dos pais ou responsáveis, eles podem continuar com o comportamento, mesmo que isso prejudique outras pessoas.
Riscos de privacidade e segurança
Muitas ferramentas legítimas de IA generativa exigem pagamento ou assinatura para criar imagens. Portanto, se um site deepnude for gratuito, ele poderá produzir imagens de baixa qualidade ou ter segurança negligente. Se uma criança enviar uma imagem vestida dela mesma ou de um amigo, o site ou aplicativo poderá fazer uso indevido dela. Isso inclui o ‘deepnude’ que ele cria.
É pouco provável que as crianças que utilizam estas ferramentas leiam os Termos de Serviço ou a Política de Privacidade, pelo que correm o risco de não compreenderem.
Criação de material de abuso sexual infantil (CSAM)
A IWF também informou que casos de CSAM 'autogerado' circulando on-line aumentou 417% de 2019 a 2022. Observe que o termo “autogerado” é imperfeito, pois, na maioria dos casos, os abusadores coagem as crianças a criar essas imagens.
No entanto, com o uso da IA de despir-se, as crianças podem, sem saber, criar CSAM gerado por IA. Se eles carregarem uma foto sua ou de outra criança vestida, alguém poderá “nudificar” essa imagem e compartilhá-la de forma mais ampla.
Cyberbullying, abuso e assédio
Assim como outros tipos de deepfakes, as pessoas podem usar ferramentas de IA para despir-se ou ‘deepnudes’ para intimidar outras pessoas. Isso pode incluir alegar que um colega enviou uma imagem sua nua, mas não o fez. Ou pode incluir o uso de IA para criar um nu com características que os intimidadores zombam.
É importante lembrar que compartilhar imagens nuas de colegas é ilegal e abusivo.