对自我生成儿童性虐待材料(CSAM)的研究

Internet Matters 与公益互联网公司 Nominet 和 Praesidio Safeguarding 联手,探索如何应对日益严重的在线自我生成 CSAM 问题。

一名青少年在卧室里看着他们的智能手机。

关于研究

Internet Matters 正在与 Nominet 和专家研究机构 Praesidio Safeguarding 合作,采取行动打击所谓的自我生成儿童性虐待材料 (CSAM) 的在线传播。

我们正在与年轻人、家长和专业人士合作,了解如何设计和部署预防性信息,以保护儿童免受这种日益增长的剥削形式的侵害。

什么是自生成CSAM?

“自我生成”儿童性虐待材料(CSAM)是一个术语(尽管不完美),用于描述儿童和青少年制作和分享的不雅图像。

了解更多

CSAM的规模

互联网观察基金会 (IWF) 警告称,近年来英国流通的自生成 CSAM 数量惊人增加,从 38,000 年的 2019 起增加到 182,000 年的 2021 起,到 200,000 年将增加到近 2022 起。

研究探索什么?

在 Nominet 的资助下,Internet Matters 正在领导一个项目,旨在了解如何通过更有效的预防教育来保护儿童免受这种骇人听闻的犯罪行为的侵害。

虽然这个领域存在许多基于学校的计划和举措,但人们很少了解哪些具体信息最有效地阻止儿童在网上分享亲密图像,以及通过干预措施接触儿童的最佳方式。 我们的目标是确定一套消息传递和传递方法,以破坏修饰途径并防止产生图像。 我们希望我们的研究结果能够指导在线安全部门的集体努力,保护儿童免受自行生成的 CSAM 分发的危害。

儿童不对自己的虐待行为负责

儿童可能会被诱骗、操纵或勒索,从而生成自己的亲密图像或视频,然后这些图像或视频可以通过同龄人群体或在线犯罪网络更广泛地传播。 年轻人也可能选择在双方同意的情况下与他人分享亲密的图像,以便随后在未经同意的情况下与他人分享。 无论哪种情况,重要的是我们要抵制含蓄或明确地指责儿童遭受虐待的语言。

对于在网上共享图像的儿童,可以提供支持,例如 NSPCC 和互联网观察基金会的报告删除工具。 即便如此,对于任何儿童、年轻人或成人来说,失去对其他人可以在线查看的图像和知识的控制感将是非常痛苦的。 因此,所有儿童都必须配备社交和情感工具来保护自己免受剥削,这一点至关重要。

研究过程

与 11 至 18 岁的年轻人(包括一部分弱势儿童)、父母、看护者和专业人士组成的小组合作:

  • 第一轮将考虑现有干预措施和预防信息的有效性。
  • 第二轮将完善有效的预防信息,并探讨如何部署更有效的预防信息。
  • 第三轮将与我们的年轻人、家长和专业人士小组一起测试完善的预防信息和部署方法。

与往年一样,11 至 13 岁的儿童最常出现在 IWF 检测并删除的“自我生成”材料中。 因此,我们的研究重点是该年龄段的预防——借鉴 11-13 岁青少年的当前经验以及较大年龄段青少年的反思观点。

我们非常高兴与 Praesidio Safeguarding 合作,他们将为该项目带来数字安全和福祉方面丰富的专业知识和见解。

该项目将于 2024 年第一季度完成并报告。

Praesidio 在保护谁?

Praesidio 是一家独立的保护机构,提供战略建议和指导、研究和见解、调查和主题审查以及广泛的教育计划。

最新更新

通过下面我们的最新更新来关注该项目的进展。