Интернет имеет значение

Исследование самостоятельно созданных материалов о сексуальном насилии над детьми (CSAM)

Маленькая девочка смотрит в свой смартфон в своей комнате.

Internet Matters объединили усилия с Nominet, общественной интернет-компанией, и Praesidio Safeguarding, чтобы изучить, как мы можем бороться с растущей проблемой самогенерируемого CSAM в Интернете.

Маленькая девочка смотрит в свой смартфон в своей комнате.

Об исследовании

Internet Matters сотрудничает с Nominet и экспертным исследовательским агентством Praesidio Safeguarding, чтобы принять меры против распространения в Интернете так называемых самостоятельно созданных материалов о сексуальном насилии над детьми (CSAM).

Мы работаем с молодыми людьми, родителями и специалистами, чтобы понять, как можно разработать и внедрить профилактические сообщения для защиты детей от этой растущей формы эксплуатации.

Ознакомьтесь с нашим исследовательским отчетом.

Что такое самогенерируемый CSAM?

«Самосозданные» материалы о сексуальном насилии над детьми (CSAM) — это термин (хотя и несовершенный), обозначающий непристойные изображения, создаваемые и распространяемые детьми и молодыми людьми.

Масштаб CSAM

Фонд Internet Watch Foundation (IWF) предупредил о тревожном росте самостоятельно созданного CSAM в обращении в Великобритании в последние годы – с 38,000 2019 случаев в 182,000 году до 2021 200,000 случаев в 2022 году и почти XNUMX XNUMX в XNUMX году.

Что изучает исследование?

Internet Matters возглавляет проект, финансируемый Nominet, чтобы понять, как защитить детей от этого ужасного преступления посредством более эффективного профилактического образования.

Несмотря на то, что в этой сфере существует множество школьных программ и инициатив, мало что известно о том, какие конкретные сообщения наиболее эффективны в предотвращении обмена детьми интимными изображениями в Интернете и о том, как лучше всего охватить детей мерами вмешательства. Наша цель — определить набор сообщений и метод доставки, которые позволят нарушить пути ухода и предотвратить создание образов. Мы надеемся, что наши выводы послужат руководством для коллективных усилий сектора онлайн-безопасности по защите детей от вреда, создаваемого самораспространением CSAM.

За детьми могут ухаживать, манипулировать ими или вынуждать их создавать интимные изображения или видео, которые затем можно более широко распространять через группы сверстников или сети правонарушителей в Интернете. Молодые люди также могут по обоюдному согласию поделиться друг с другом интимными изображениями, чтобы позже поделиться ими без согласия с другими. В любом случае важно противостоять высказываниям, которые прямо или косвенно обвиняют детей в жестоком обращении с ними.

Для детей, чьи изображения были опубликованы в Интернете, доступна поддержка, например, NSPCC и инструмент удаления отчетов Internet Watch Foundation. Даже в этом случае ощущение потери контроля над изображением и знания о том, что оно может быть доступно другим для просмотра в Интернете, будет чрезвычайно мучительным для любого ребенка, молодого человека или взрослого. По этой причине крайне важно, чтобы все дети были оснащены социальными и эмоциональными инструментами, позволяющими защитить себя от эксплуатации.

Процесс исследования

Работа с группами молодых людей в возрасте от 11 до 18 лет, включая группу уязвимых детей, родителей, опекунов и специалистов:

  • В первом раунде будет рассмотрена эффективность существующих вмешательств и профилактических сообщений.
  • Во втором раунде будут усовершенствованы эффективные профилактические сообщения и изучены способы использования более эффективных профилактических сообщений.
  • В третьем раунде будут проверены усовершенствованные профилактические сообщения и методы их внедрения с участием наших групп молодых людей, родителей и специалистов.

Как и в предыдущие годы, в «самогенерируемых» материалах, обнаруженных и удаленных IWF, чаще всего фигурируют дети в возрасте от 11 до 13 лет. По этой причине наше исследование сосредоточено на профилактике внутри этой возрастной группы, опираясь на текущий опыт детей 11–13 лет и рефлексивные взгляды подростков старших возрастных групп.

Мы очень рады сотрудничеству с Praesidio Safeguarding, которая привнесет в этот проект свой богатый опыт и знания в области цифровой безопасности и благополучия.

Проект завершится и отчет будет представлен в первом квартале 2024 года.

Кого защищает Praesidio?

Praesidio — независимое охранное агентство, которое предоставляет стратегические консультации и рекомендации, исследования и анализ, расследования и тематические обзоры, а также обширную образовательную программу.

Последние обновления

Следите за ходом проекта с нашими последними обновлениями ниже.

Молодая девушка сидит на диване и смотрит в свой смартфон. Исследование
Краткое чтение

Предотвращение «самопроизвольного» сексуального насилия над детьми

В этом отчете рассматриваются эффективные методы предотвращения распространения среди подростков материалов, содержащих сцены сексуального насилия над детьми, «созданных ими самими».

Девушка лежит в постели с грустным выражением лица и смартфоном вниз. Исследование
Долго читал

Internet Matters x Исследование Nominet: методы предотвращения распространения самогенерируемого CSAM

В этом блоге мы делимся результатами второго раунда нашего исследования по предотвращению распространения сексуальных изображений среди детей 2–11 лет.

Молодая девушка расстроенно смотрит вдаль. Исследование
Долго читал

Что родители должны знать об обмене сексуальными изображениями среди детей

Узнайте о нашем исследовании обмена сексуальными изображениями среди детей в возрасте от 11 до 13 лет и о том, что эти выводы означают для родителей.