Assuntos da Internet
Pesquisar

Pesquisa sobre material de abuso sexual infantil autogerado (CSAM)

Uma jovem olha para seu smartphone em seu quarto.

A Internet Matters e a Nominet, empresa de internet de benefício público, juntamente com a Praesidio Safeguarding, exploram como podemos combater o crescente problema de material de abuso sexual infantil autogerado online.

Uma jovem olha para seu smartphone em seu quarto.

Sobre a pesquisa

A Internet Matters fez uma parceria com a Nominet e a agência de pesquisa especializada Praesidio Safeguarding para tomar medidas contra a disseminação do chamado material de abuso sexual infantil autogerado (CSAM) online.

Trabalhamos com jovens, pais e profissionais para entender como mensagens preventivas podem ser elaboradas e implementadas para proteger crianças dessa forma crescente de exploração.

Explore nosso relatório de pesquisa.

O que é CSAM autogerado?

Material de abuso sexual infantil “autogerado” (CSAM) é um termo (embora imperfeito) para descrever imagens indecentes produzidas e compartilhadas por crianças e jovens.

A escala do CSAM

A Internet Watch Foundation (IWF) alertou para um aumento alarmante no CSAM autogerado em circulação no Reino Unido nos últimos anos – de 38,000 casos em 2019 para 182,000 casos em 2021 e quase 200,000 em 2022.

O que a pesquisa explora?

A Internet Matters liderou um projeto, com financiamento da Nominet, para entender como proteger as crianças desse crime terrível por meio de uma educação preventiva mais eficaz.

Embora existam muitos programas e iniciativas escolares nesse espaço, pouco se sabe sobre quais mensagens específicas são mais eficazes para impedir que crianças compartilhem imagens íntimas on-line e a melhor maneira de atingir as crianças com intervenções.

Nosso objetivo foi identificar um conjunto de mensagens e um método de entrega para interromper os processos de aliciamento e impedir a criação de imagens. Esperamos que nossas descobertas orientem os esforços coletivos do setor de segurança online para proteger crianças dos danos da distribuição autogerada de material de abuso sexual infantil (CSAM).

As crianças podem ser preparadas, manipuladas ou extorquidas para gerarem uma imagem ou vídeo íntimo de si mesmas, que pode então ser divulgado mais amplamente através de grupos de pares ou redes de infratores online. Os jovens também podem optar por partilhar consensualmente imagens íntimas entre si, para mais tarde serem partilhadas de forma não consensual com outras pessoas. Em qualquer das circunstâncias, é importante resistirmos a uma linguagem que implícita ou explicitamente culpa as crianças pelos seus abusos.

Há suporte disponível para crianças cujas imagens foram compartilhadas online, como NSPCC e a ferramenta Report Remove da Internet Watch Foundation. Mesmo assim, a sensação de perder o controlo de uma imagem e o conhecimento de que esta pode estar disponível para outros verem online será imensamente angustiante para qualquer criança, jovem ou adulto. Por esta razão, é vital que todas as crianças estejam equipadas com ferramentas sociais e emocionais para se protegerem da exploração.

O processo de pesquisa

Trabalhar com painéis de jovens dos 11 aos 18 anos – incluindo um subconjunto de crianças vulneráveis ​​– pais, cuidadores e profissionais:

  • A Rodada 1 considerou a eficácia das intervenções e mensagens de prevenção existentes.
  • A Rodada 2 refinou mensagens de prevenção eficazes e explorou como mensagens de prevenção mais eficazes poderiam ser implantadas.
  • A terceira rodada testou mensagens refinadas de prevenção e métodos de implantação com nossos painéis de jovens, pais e profissionais.

Tal como nos anos anteriores, as crianças entre os 11 e os 13 anos aparecem com maior frequência no material “autogerado” detectado e removido pela IWF. Por esta razão, a nossa investigação centra-se na prevenção nesta faixa etária – com base na experiência atual de crianças dos 11 aos 13 anos e nas opiniões reflexivas dos adolescentes em faixas etárias mais avançadas.

Estamos muito animados com a parceria com a Praesidio Safeguarding, que trouxe sua vasta experiência e insights sobre segurança e bem-estar digital para este projeto.

O projeto já foi concluído. Você pode ler o relatório aqui.

Quem está a salvaguarda do Praesidio?

Praesidio é uma agência de salvaguarda independente que fornece aconselhamento e orientação estratégica, investigação e conhecimento, investigações e análises temáticas e um extenso programa educativo.

Ultimas atualizações

Acompanhe o andamento do projeto com nossas últimas atualizações abaixo.