Créer, posséder ou partager une image deepfake nue d'un enfant est illégal et classé comme matériel pédopornographique (CSAM). Pourtant, les outils qui les créent ne sont actuellement pas illégaux et les enfants sont de plus en plus souvent en contact avec eux.
Interdire les outils de nudification
Nos recherches ont révélé que 84 % des adolescents et 80 % des parents sont favorables à l'interdiction des outils de nudification pour tous au Royaume-Uni, y compris les adultes.
À la Chambre des communes, le député Jess Asato a exhorté le gouvernement écouter la voix des parents et des enfants sur cette question en interdisant les applications de nudification.
Mme Asato a déclaré : « L’augmentation des deepfakes de nudité est un problème de plus en plus préoccupant, en particulier dans les écoles. Une étude menée par Internet Matters a montré les dommages qu’ils causent déjà aux enfants, et le potentiel de cette technologie à causer des dommages encore plus importants. En permettant aux programmes de nudification de rester facilement accessibles, nous exposons nos enfants au risque d’être blessés, voire criminalisés. C’est pourquoi j’ai appelé le gouvernement à interdire les outils et applications de nudification. »
L’interdiction des outils de nudification était l’une des principales recommandations de notre rapport, Le nouveau visage des abus numériques : les expériences des enfants face aux deepfakes nus.
La responsabilité de protéger les enfants contre les abus sexuels de type deepfake ne peut pas incomber aux écoles et aux parents. L'industrie et le gouvernement doivent intervenir. L'interdiction des outils de nudification contribuerait à protéger les enfants contre les dangers en ligne. En outre, elle soutiendrait l'objectif ambitieux du gouvernement de réduire de moitié la violence à l'égard des femmes et des filles au cours de la prochaine décennie.