Recherche zu selbst erstelltem Material zum sexuellen Missbrauch von Kindern (CSAM)

Internet Matters hat sich mit Nominet, dem gemeinnützigen Internetunternehmen, und Praesidio Safeguarding zusammengetan, um zu untersuchen, wie wir das wachsende Problem des selbst generierten CSAM im Internet bekämpfen können.

Ein Teenager schaut in seinem Schlafzimmer auf sein Smartphone.

Über die Forschung

Internet Matters arbeitet mit Nominet und der Expertenforschungsagentur Praesidio Safeguarding zusammen, um gegen die Verbreitung von sogenanntem selbstgeneriertem Material zum sexuellen Missbrauch von Kindern (CSAM) im Internet vorzugehen.

Wir arbeiten mit jungen Menschen, Eltern und Fachkräften zusammen, um zu verstehen, wie präventive Botschaften gestaltet und eingesetzt werden können, um Kinder vor dieser zunehmenden Form der Ausbeutung zu schützen.

Entdecken Sie unseren Forschungsbericht.

Was ist selbstgeneriertes CSAM?

„Selbst erstelltes“ Material zum sexuellen Missbrauch von Kindern (CSAM) ist ein (wenn auch unvollkommener) Begriff zur Beschreibung anstößiger Bilder, die von Kindern und Jugendlichen produziert und geteilt werden.

ERFAHREN SIE MEHR

Der Umfang von CSAM

Die Internet Watch Foundation (IWF) hat vor einem alarmierenden Anstieg der in Großbritannien im Umlauf befindlichen selbstgenerierten CSAM in den letzten Jahren gewarnt – von 38,000 Fällen im Jahr 2019 auf 182,000 Fälle im Jahr 2021 und fast 200,000 im Jahr 2022.

Was untersucht die Forschung?

Internet Matters leitet ein von Nominet finanziertes Projekt, um herauszufinden, wie Kinder durch eine wirksamere präventive Aufklärung vor diesem schrecklichen Verbrechen geschützt werden können.

Obwohl es in diesem Bereich viele schulische Programme und Initiativen gibt, ist wenig darüber bekannt, welche spezifischen Botschaften Kinder am effektivsten davon abhalten, intime Bilder online zu teilen, und wie man Kinder am besten mit Interventionen erreichen kann. Unser Ziel ist es, eine Reihe von Nachrichten und eine Übermittlungsmethode zu identifizieren, um Grooming-Pfade zu unterbrechen und die Entstehung von Bildern zu verhindern. Wir hoffen, dass unsere Ergebnisse die gemeinsamen Bemühungen des Online-Sicherheitssektors zum Schutz von Kindern vor den Schäden der selbst verursachten CSAM-Verbreitung leiten werden.

Kinder sind für ihren Missbrauch nicht verantwortlich

Kinder können dazu gebracht, manipuliert oder erpresst werden, ein intimes Bild oder Video von sich selbst zu erstellen, das dann über Peergroups oder Straftäternetzwerke im Internet weiter verbreitet werden kann. Junge Menschen entscheiden sich möglicherweise auch dafür, intime Bilder einvernehmlich miteinander zu teilen, um sie später nicht einvernehmlich mit anderen zu teilen. In jedem Fall ist es wichtig, dass wir uns einer Sprache widersetzen, die implizit oder explizit Kinder für ihren Missbrauch verantwortlich macht.

Für Kinder, deren Bilder online geteilt wurden, gibt es Unterstützung, z. B. NSPCC und das Report Remove-Tool der Internet Watch Foundation. Dennoch ist das Gefühl, die Kontrolle über ein Bild zu verlieren und zu wissen, dass es möglicherweise für andere online verfügbar ist, für jedes Kind, jeden Jugendlichen und jeden Erwachsenen äußerst belastend. Aus diesem Grund ist es wichtig, dass alle Kinder mit den sozialen und emotionalen Mitteln ausgestattet werden, um sich vor Ausbeutung zu schützen.

Der Forschungsprozess

Arbeit mit Gremien junger Menschen im Alter von 11 bis 18 Jahren – darunter eine Untergruppe gefährdeter Kinder – Eltern, Betreuer und Fachkräfte:

  • In Runde 1 wird die Wirksamkeit bestehender Interventionen und Präventionsbotschaften geprüft.
  • In Runde 2 werden wirksame Präventionsbotschaften verfeinert und untersucht, wie wirksamere Präventionsbotschaften eingesetzt werden könnten.
  • In Runde 3 werden verfeinerte Präventionsbotschaften und Einsatzmethoden mit unseren Gremien aus Jugendlichen, Eltern und Fachkräften getestet.

Wie in den Vorjahren tauchen Kinder im Alter von 11 bis 13 Jahren am häufigsten in dem vom IWF erfassten und entfernten „selbst erstellten“ Material auf. Aus diesem Grund konzentrieren wir uns in unserer Forschung auf die Prävention in dieser Altersgruppe – und stützen uns dabei auf die aktuellen Erfahrungen der 11- bis 13-Jährigen und die reflektierten Ansichten von Teenagern in älteren Altersgruppen.

Wir freuen uns sehr über die Partnerschaft mit Praesidio Safeguarding, die ihr umfangreiches Fachwissen und ihre Erkenntnisse zu digitaler Sicherheit und Wohlbefinden in dieses Projekt einbringen werden.

Das Projekt wird im ersten Quartal 2024 abgeschlossen und veröffentlicht.

Wen schützt Praesidio?

Praesidio ist eine unabhängige Schutzagentur, die strategische Beratung und Anleitung, Forschung und Erkenntnisse, Untersuchungen und thematische Überprüfungen sowie ein umfangreiches Bildungsprogramm bietet.

Letzte Aktualisierung

Verfolgen Sie den Fortschritt des Projekts mit unseren neuesten Updates unten.