MENU

Badania nad samodzielnie wygenerowanymi materiałami przedstawiającymi wykorzystywanie seksualne dzieci (CSAM)

Firma Internet Matters połączyła siły z Nominet, firmą internetową pożytku publicznego, i Praesidio Safeguarding, aby zbadać, w jaki sposób możemy walczyć z rosnącym problemem samodzielnie generowanych CSAM w Internecie.

Nastolatek patrzy na smartfon w swojej sypialni.

O badaniach

Internet Matters współpracuje z Nominet i ekspercką agencją badawczą Praesidio Safeguarding, aby podjąć działania przeciwko rozpowszechnianiu w Internecie tak zwanych samodzielnie generowanych materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM).

Współpracujemy z młodymi ludźmi, rodzicami i profesjonalistami, aby zrozumieć, w jaki sposób można zaprojektować i wdrożyć komunikaty zapobiegawcze, aby chronić dzieci przed tą rosnącą formą wyzysku.

Co to jest samodzielnie wygenerowany CSAM?

„Wytworzone przez siebie” materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) to termin (choć niedoskonały) opisujący nieprzyzwoite obrazy tworzone i udostępniane przez dzieci i młodzież.

DOWIEDZ SIĘ WIĘCEJ

Skala CSAM

Fundacja Internet Watch Foundation (IWF) ostrzegła przed niepokojącym wzrostem ilości samodzielnie wygenerowanych CSAM znajdujących się w obiegu w Wielkiej Brytanii w ostatnich latach – z 38,000 2019 przypadków w 182,000 r. do 2021 200,000 przypadków w 2022 r. i prawie XNUMX XNUMX w XNUMX r.

Co bada badanie?

Internet Matters prowadzi projekt finansowany przez Nominet, którego celem jest zrozumienie, w jaki sposób chronić dzieci przed tą przerażającą zbrodnią poprzez skuteczniejszą edukację zapobiegawczą.

Chociaż w tej przestrzeni istnieje wiele programów i inicjatyw szkolnych, niewiele wiadomo na temat tego, które konkretne komunikaty są najskuteczniejsze w zapobieganiu udostępnianiu przez dzieci intymnych zdjęć w Internecie i jakie są najlepsze sposoby dotarcia do dzieci z interwencjami. Naszym celem jest zidentyfikowanie zestawu komunikatów i metody ich dostarczania, aby zakłócić ścieżki pielęgnacji i zapobiec tworzeniu obrazów. Mamy nadzieję, że nasze ustalenia będą wyznaczać kierunki wspólnych wysiłków sektora bezpieczeństwa w Internecie na rzecz ochrony dzieci przed szkodami wynikającymi z samodzielnie generowanej dystrybucji CSAM.

Dzieci nie ponoszą odpowiedzialności za swoje znęcanie się

Dzieci mogą być pielęgnowane, manipulowane lub wymuszane w celu stworzenia intymnego zdjęcia lub filmu o sobie, które można następnie szerzej rozpowszechnić w grupach rówieśniczych lub sieciach przestępców w Internecie. Młodzi ludzie mogą również zdecydować się na dzielenie się intymnymi obrazami za obopólną zgodą, aby później bez ich zgody udostępnić je innym. W obu przypadkach ważne jest, abyśmy przeciwstawiali się językowi, który w sposób dorozumiany lub wyraźny obwinia dzieci za molestowanie.

Dla dzieci, których zdjęcia zostały udostępnione w Internecie, dostępna jest pomoc, na przykład NSPCC i narzędzie do usuwania raportów fundacji Internet Watch Foundation. Mimo to poczucie utraty kontroli nad obrazem i wiedzą, że inni mogą go oglądać w Internecie, będzie niezwykle niepokojące dla każdego dziecka, młodej osoby lub osoby dorosłej. Z tego powodu niezwykle ważne jest wyposażenie wszystkich dzieci w narzędzia społeczne i emocjonalne, które pozwolą im chronić się przed wyzyskiem.

Proces badawczy

Praca z panelami składającymi się z młodych ludzi w wieku od 11 do 18 lat – w tym z podgrupą dzieci bezbronnych – rodziców, opiekunów i specjalistów:

  • Runda 1 rozważy skuteczność istniejących interwencji i komunikatów zapobiegawczych.
  • Runda 2 udoskonali skuteczne komunikaty zapobiegawcze i zbada, w jaki sposób można zastosować skuteczniejsze komunikaty zapobiegawcze.
  • Runda 3 przetestuje udoskonalone komunikaty profilaktyczne i metody wdrażania w naszych panelach składających się z młodych ludzi, rodziców i profesjonalistów.

Podobnie jak w latach poprzednich, w „samogenerowanym” materiale wykrytym i usuniętym przez IWF najczęściej pojawiają się dzieci w wieku od 11 do 13 lat. Z tego powodu nasze badania skupiają się na profilaktyce w tej grupie wiekowej – czerpiąc z aktualnych doświadczeń 11-13-latków oraz refleksyjnych poglądów nastolatków ze starszych grup wiekowych.

Jesteśmy bardzo podekscytowani współpracą z firmą Praesidio Safeguarding, która wniesie do tego projektu swoje bogactwo wiedzy specjalistycznej i wiedzy na temat bezpieczeństwa cyfrowego i dobrego samopoczucia.

Zakończenie projektu i raportowanie nastąpi w I kwartale 2024 roku.

Kogo chroni Praesidio?

Praesidio to niezależna agencja zajmująca się ochroną, która zapewnia strategiczne doradztwo i wytyczne, badania i spostrzeżenia, dochodzenia i przeglądy tematyczne oraz obszerny program edukacyjny.

Ostatnie aktualizacje

Śledź postęp projektu, korzystając z naszych najnowszych aktualizacji poniżej.