Sprawy związane z Internetem
Szukaj

Badania nad samodzielnie wygenerowanymi materiałami przedstawiającymi wykorzystywanie seksualne dzieci (CSAM)

Młoda dziewczyna patrzy na swój smartfon w swoim pokoju.

Internet Matters i Nominet, spółka działająca w internecie w interesie publicznym, wraz z Praesidio Safeguarding badają, w jaki sposób można zwalczać narastający problem treści seksualnych generowanych przez użytkowników w Internecie.

Młoda dziewczyna patrzy na swój smartfon w swoim pokoju.

O badaniach

Internet Matters nawiązało współpracę z Nominet i agencją badawczą Praesidio Safeguarding, aby podjąć działania przeciwko rozpowszechnianiu w Internecie materiałów prezentujących molestowanie seksualne dzieci (CSAM).

Współpracowaliśmy z młodzieżą, rodzicami i specjalistami, aby dowiedzieć się, w jaki sposób można zaprojektować i wdrożyć przekazy zapobiegawcze, aby chronić dzieci przed tą coraz powszechniejszą formą wykorzystywania.

Zapoznaj się z naszym raportem z badania.

Co to jest samodzielnie wygenerowany CSAM?

„Wytworzone przez siebie” materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) to termin (choć niedoskonały) opisujący nieprzyzwoite obrazy tworzone i udostępniane przez dzieci i młodzież.

Skala CSAM

Fundacja Internet Watch Foundation (IWF) ostrzegła przed niepokojącym wzrostem ilości samodzielnie wygenerowanych CSAM znajdujących się w obiegu w Wielkiej Brytanii w ostatnich latach – z 38,000 2019 przypadków w 182,000 r. do 2021 200,000 przypadków w 2022 r. i prawie XNUMX XNUMX w XNUMX r.

Co bada badanie?

Organizacja Internet Matters przeprowadziła projekt finansowany przez Nominet, którego celem było ustalenie, w jaki sposób chronić dzieci przed tym odrażającym przestępstwem poprzez skuteczniejszą edukację prewencyjną.

Chociaż w tej dziedzinie istnieje wiele programów i inicjatyw szkolnych, niewiele wiadomo na temat tego, jakie konkretne przekazy są najskuteczniejsze w zapobieganiu udostępnianiu przez dzieci intymnych zdjęć w Internecie i jaki jest najlepszy sposób dotarcia do dzieci z interwencjami.

Naszym celem było zidentyfikowanie zestawu komunikatów i metody ich przekazywania, które mogłyby zakłócić ścieżki groomingu i zapobiec tworzeniu wizerunku. Mamy nadzieję, że nasze ustalenia będą stanowić punkt odniesienia dla wspólnych działań sektora bezpieczeństwa online w zakresie ochrony dzieci przed szkodami wynikającymi z rozpowszechniania treści CSAM generowanych przez dzieci.

Dzieci mogą być pielęgnowane, manipulowane lub wymuszane w celu stworzenia intymnego zdjęcia lub filmu o sobie, które można następnie szerzej rozpowszechnić w grupach rówieśniczych lub sieciach przestępców w Internecie. Młodzi ludzie mogą również zdecydować się na dzielenie się intymnymi obrazami za obopólną zgodą, aby później bez ich zgody udostępnić je innym. W obu przypadkach ważne jest, abyśmy przeciwstawiali się językowi, który w sposób dorozumiany lub wyraźny obwinia dzieci za molestowanie.

Dla dzieci, których zdjęcia zostały udostępnione w Internecie, dostępna jest pomoc, na przykład NSPCC i narzędzie do usuwania raportów fundacji Internet Watch Foundation. Mimo to poczucie utraty kontroli nad obrazem i wiedzą, że inni mogą go oglądać w Internecie, będzie niezwykle niepokojące dla każdego dziecka, młodej osoby lub osoby dorosłej. Z tego powodu niezwykle ważne jest wyposażenie wszystkich dzieci w narzędzia społeczne i emocjonalne, które pozwolą im chronić się przed wyzyskiem.

Proces badawczy

Praca z panelami składającymi się z młodych ludzi w wieku od 11 do 18 lat – w tym z podgrupą dzieci bezbronnych – rodziców, opiekunów i specjalistów:

  • W rundzie 1 uwzględniono skuteczność istniejących interwencji i komunikatów profilaktycznych.
  • W rundzie drugiej udoskonalono skuteczne komunikaty profilaktyczne i zbadano, w jaki sposób można wdrażać skuteczniejsze komunikaty profilaktyczne.
  • W rundzie trzeciej przetestowaliśmy udoskonalone komunikaty profilaktyczne i metody ich wdrażania z udziałem naszych panelistów składających się z młodych ludzi, rodziców i specjalistów.

Podobnie jak w latach poprzednich, w „samogenerowanym” materiale wykrytym i usuniętym przez IWF najczęściej pojawiają się dzieci w wieku od 11 do 13 lat. Z tego powodu nasze badania skupiają się na profilaktyce w tej grupie wiekowej – czerpiąc z aktualnych doświadczeń 11-13-latków oraz refleksyjnych poglądów nastolatków ze starszych grup wiekowych.

Jesteśmy bardzo podekscytowani współpracą z firmą Praesidio Safeguarding, która wniosła do tego projektu całe swoje doświadczenie i wiedzę na temat bezpieczeństwa cyfrowego i dobrego samopoczucia.

Projekt został zakończony. Raport możesz przeczytać tutaj.

Kogo chroni Praesidio?

Praesidio to niezależna agencja zajmująca się ochroną, która zapewnia strategiczne doradztwo i wytyczne, badania i spostrzeżenia, dochodzenia i przeglądy tematyczne oraz obszerny program edukacyjny.

Ostatnie aktualizacje

Śledź postęp projektu, korzystając z naszych najnowszych aktualizacji poniżej.