MENU

Badania nad samodzielnie wygenerowanymi materiałami przedstawiającymi wykorzystywanie seksualne dzieci (CSAM)

Firma Internet Matters połączyła siły z Nominet, firmą internetową pożytku publicznego, i Praesidio Safeguarding, aby zbadać, w jaki sposób możemy walczyć z rosnącym problemem samodzielnie generowanych CSAM w Internecie.

Nastolatek patrzy na smartfon w swojej sypialni.

O badaniach

Internet Matters współpracuje z Nominet i ekspercką agencją badawczą Praesidio Safeguarding, aby podjąć działania przeciwko rozpowszechnianiu w Internecie tak zwanych samodzielnie generowanych materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM).

Współpracujemy z młodymi ludźmi, rodzicami i profesjonalistami, aby zrozumieć, w jaki sposób można zaprojektować i wdrożyć komunikaty zapobiegawcze, aby chronić dzieci przed tą rosnącą formą wyzysku.

Zapoznaj się z naszym raportem z badania.

Co to jest samodzielnie wygenerowany CSAM?

„Wytworzone przez siebie” materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) to termin (choć niedoskonały) opisujący nieprzyzwoite obrazy tworzone i udostępniane przez dzieci i młodzież.

DOWIEDZ SIĘ WIĘCEJ

Skala CSAM

Fundacja Internet Watch Foundation (IWF) ostrzegła przed niepokojącym wzrostem ilości samodzielnie wygenerowanych CSAM znajdujących się w obiegu w Wielkiej Brytanii w ostatnich latach – z 38,000 2019 przypadków w 182,000 r. do 2021 200,000 przypadków w 2022 r. i prawie XNUMX XNUMX w XNUMX r.

Co bada badanie?

Internet Matters prowadzi projekt finansowany przez Nominet, którego celem jest zrozumienie, w jaki sposób chronić dzieci przed tą przerażającą zbrodnią poprzez skuteczniejszą edukację zapobiegawczą.

Chociaż w tej przestrzeni istnieje wiele programów i inicjatyw szkolnych, niewiele wiadomo na temat tego, które konkretne komunikaty są najskuteczniejsze w zapobieganiu udostępnianiu przez dzieci intymnych zdjęć w Internecie i jakie są najlepsze sposoby dotarcia do dzieci z interwencjami. Naszym celem jest zidentyfikowanie zestawu komunikatów i metody ich dostarczania, aby zakłócić ścieżki pielęgnacji i zapobiec tworzeniu obrazów. Mamy nadzieję, że nasze ustalenia będą wyznaczać kierunki wspólnych wysiłków sektora bezpieczeństwa w Internecie na rzecz ochrony dzieci przed szkodami wynikającymi z samodzielnie generowanej dystrybucji CSAM.

Dzieci nie ponoszą odpowiedzialności za swoje znęcanie się

Dzieci mogą być pielęgnowane, manipulowane lub wymuszane w celu stworzenia intymnego zdjęcia lub filmu o sobie, które można następnie szerzej rozpowszechnić w grupach rówieśniczych lub sieciach przestępców w Internecie. Młodzi ludzie mogą również zdecydować się na dzielenie się intymnymi obrazami za obopólną zgodą, aby później bez ich zgody udostępnić je innym. W obu przypadkach ważne jest, abyśmy przeciwstawiali się językowi, który w sposób dorozumiany lub wyraźny obwinia dzieci za molestowanie.

Dla dzieci, których zdjęcia zostały udostępnione w Internecie, dostępna jest pomoc, na przykład NSPCC i narzędzie do usuwania raportów fundacji Internet Watch Foundation. Mimo to poczucie utraty kontroli nad obrazem i wiedzą, że inni mogą go oglądać w Internecie, będzie niezwykle niepokojące dla każdego dziecka, młodej osoby lub osoby dorosłej. Z tego powodu niezwykle ważne jest wyposażenie wszystkich dzieci w narzędzia społeczne i emocjonalne, które pozwolą im chronić się przed wyzyskiem.

Proces badawczy

Praca z panelami składającymi się z młodych ludzi w wieku od 11 do 18 lat – w tym z podgrupą dzieci bezbronnych – rodziców, opiekunów i specjalistów:

  • Runda 1 rozważy skuteczność istniejących interwencji i komunikatów zapobiegawczych.
  • Runda 2 udoskonali skuteczne komunikaty zapobiegawcze i zbada, w jaki sposób można zastosować skuteczniejsze komunikaty zapobiegawcze.
  • Runda 3 przetestuje udoskonalone komunikaty profilaktyczne i metody wdrażania w naszych panelach składających się z młodych ludzi, rodziców i profesjonalistów.

Podobnie jak w latach poprzednich, w „samogenerowanym” materiale wykrytym i usuniętym przez IWF najczęściej pojawiają się dzieci w wieku od 11 do 13 lat. Z tego powodu nasze badania skupiają się na profilaktyce w tej grupie wiekowej – czerpiąc z aktualnych doświadczeń 11-13-latków oraz refleksyjnych poglądów nastolatków ze starszych grup wiekowych.

Jesteśmy bardzo podekscytowani współpracą z firmą Praesidio Safeguarding, która wniesie do tego projektu swoje bogactwo wiedzy specjalistycznej i wiedzy na temat bezpieczeństwa cyfrowego i dobrego samopoczucia.

Zakończenie projektu i raportowanie nastąpi w I kwartale 2024 roku.

Kogo chroni Praesidio?

Praesidio to niezależna agencja zajmująca się ochroną, która zapewnia strategiczne doradztwo i wytyczne, badania i spostrzeżenia, dochodzenia i przeglądy tematyczne oraz obszerny program edukacyjny.

Ostatnie aktualizacje

Śledź postęp projektu, korzystając z naszych najnowszych aktualizacji poniżej.