МЕНЮ

Исследование самостоятельно созданных материалов о сексуальном насилии над детьми (CSAM)

Internet Matters объединили усилия с Nominet, общественной интернет-компанией, и Praesidio Safeguarding, чтобы изучить, как мы можем бороться с растущей проблемой самогенерируемого CSAM в Интернете.

Подросток смотрит на свой смартфон в спальне.

Об исследовании

Internet Matters сотрудничает с Nominet и экспертным исследовательским агентством Praesidio Safeguarding, чтобы принять меры против распространения в Интернете так называемых самостоятельно созданных материалов о сексуальном насилии над детьми (CSAM).

Мы работаем с молодыми людьми, родителями и специалистами, чтобы понять, как можно разработать и внедрить профилактические сообщения для защиты детей от этой растущей формы эксплуатации.

Что такое самогенерируемый CSAM?

«Самосозданные» материалы о сексуальном насилии над детьми (CSAM) — это термин (хотя и несовершенный), обозначающий непристойные изображения, создаваемые и распространяемые детьми и молодыми людьми.

Узнать больше

Масштаб CSAM

Фонд Internet Watch Foundation (IWF) предупредил о тревожном росте самостоятельно созданного CSAM в обращении в Великобритании в последние годы – с 38,000 2019 случаев в 182,000 году до 2021 200,000 случаев в 2022 году и почти XNUMX XNUMX в XNUMX году.

Что изучает исследование?

Internet Matters возглавляет проект, финансируемый Nominet, чтобы понять, как защитить детей от этого ужасного преступления посредством более эффективного профилактического образования.

Несмотря на то, что в этой сфере существует множество школьных программ и инициатив, мало что известно о том, какие конкретные сообщения наиболее эффективны в предотвращении обмена детьми интимными изображениями в Интернете и о том, как лучше всего охватить детей мерами вмешательства. Наша цель — определить набор сообщений и метод доставки, которые позволят нарушить пути ухода и предотвратить создание образов. Мы надеемся, что наши выводы послужат руководством для коллективных усилий сектора онлайн-безопасности по защите детей от вреда, создаваемого самораспространением CSAM.

Дети не несут ответственности за жестокое обращение с ними

За детьми могут ухаживать, манипулировать ими или вынуждать их создавать интимные изображения или видео, которые затем можно более широко распространять через группы сверстников или сети правонарушителей в Интернете. Молодые люди также могут по обоюдному согласию поделиться друг с другом интимными изображениями, чтобы позже поделиться ими без согласия с другими. В любом случае важно противостоять высказываниям, которые прямо или косвенно обвиняют детей в жестоком обращении с ними.

Для детей, чьи изображения были опубликованы в Интернете, доступна поддержка, например, NSPCC и инструмент удаления отчетов Internet Watch Foundation. Даже в этом случае ощущение потери контроля над изображением и знания о том, что оно может быть доступно другим для просмотра в Интернете, будет чрезвычайно мучительным для любого ребенка, молодого человека или взрослого. По этой причине крайне важно, чтобы все дети были оснащены социальными и эмоциональными инструментами, позволяющими защитить себя от эксплуатации.

Процесс исследования

Работа с группами молодых людей в возрасте от 11 до 18 лет, включая группу уязвимых детей, родителей, опекунов и специалистов:

  • В первом раунде будет рассмотрена эффективность существующих вмешательств и профилактических сообщений.
  • Во втором раунде будут усовершенствованы эффективные профилактические сообщения и изучены способы использования более эффективных профилактических сообщений.
  • В третьем раунде будут проверены усовершенствованные профилактические сообщения и методы их внедрения с участием наших групп молодых людей, родителей и специалистов.

Как и в предыдущие годы, в «самогенерируемых» материалах, обнаруженных и удаленных IWF, чаще всего фигурируют дети в возрасте от 11 до 13 лет. По этой причине наше исследование сосредоточено на профилактике внутри этой возрастной группы, опираясь на текущий опыт детей 11–13 лет и рефлексивные взгляды подростков старших возрастных групп.

Мы очень рады сотрудничеству с Praesidio Safeguarding, которая привнесет в этот проект свой богатый опыт и знания в области цифровой безопасности и благополучия.

Проект завершится и отчет будет представлен в первом квартале 2024 года.

Кого защищает Praesidio?

Praesidio — независимое охранное агентство, которое предоставляет стратегические консультации и рекомендации, исследования и анализ, расследования и тематические обзоры, а также обширную образовательную программу.

Последние обновления

Следите за ходом проекта с нашими последними обновлениями ниже.