Au cours de l’année écoulée, nous avons constaté l’augmentation rapide des deepfakes de nus, avec des outils de nudification facilement accessibles en ligne.
Cela crée de l’anxiété et de la peur chez les jeunes, qui sont favorables à l’interdiction des outils utilisés pour les créer.
Résumé
- L'année dernière, les contenus sexuels deepfake en ligne ont augmenté de plus de 400 %
- 99 % des deepfakes nus présentent des femmes et des filles ; les outils de nudification ne fonctionnent pas sur les hommes et les garçons.
- Le député Jess Asato exhorte le gouvernement à interdire les outils et applications de nudification.
- Nous avons créé des ressources pour soutenir les parents et les jeunes.
Que sont les deepfakes nus ?
Avec l'essor des technologies d'intelligence artificielle, de nouvelles menaces pour les enfants sont apparues en ligne, notamment les deepfakes de nus. Les deepfakes de nus sont des images sexuelles créées à l'aide d'outils d'IA de nudification à partir d'images de personnes réelles, y compris d'enfants.
L’année dernière, les contenus sexuels deepfake en ligne ont augmenté de plus de 400 %. Nos recherches révèlent également qu’environ un demi-million d’enfants (13 %) ont déjà été victimes d’un deepfake de nudité en ligne. Cela peut se produire lorsqu’ils tombent sur un deepfake de nudité sur un site Web, lorsqu’ils en reçoivent un d’un ami ou lorsqu’ils utilisent eux-mêmes une application de nudification.
Il est désormais facile, rapide et peu coûteux de générer des images et des vidéos de nu très convaincantes mettant en scène de vraies personnes en quelques clics. Les plateformes s'efforcent de supprimer les outils de nudification lorsqu'elles en rencontrent. Cependant, ils restent accessibles sur les magasins d'applications et courants dans les résultats de recherche des moteurs de recherche traditionnels.
L'impact des deepfakes nus sur les enfants, en particulier les filles
Les photos de nus deepfake peuvent avoir de graves conséquences sur les enfants, notamment par le biais d'abus et de harcèlement. Les victimes de ces abus peuvent souffrir de syndrome de stress post-traumatique, de dépression, d'anxiété et même de pensées suicidaires. Elles peuvent également craindre la violence physique si l'auteur partage ses données personnelles avec l'image.
En fait, la plupart des adolescents (55 %) estiment qu'avoir une fausse image d'eux nus créée et partagée serait pire qu'une vraie image. Lorsqu'on leur a demandé pourquoi, les adolescents ont cité :
- Ressentir la perte d’autonomie corporelle
- Inquiétude de ne pas savoir qu’il existait, qui l’avait créé ou pourquoi
- La peur que cela pouvait susciter. Cela s'est notamment manifesté chez les amis, les enseignants et les parents qui pensaient que c'était réel et qui les voyaient différemment. Ils craignaient également que l'image puisse complètement les dénaturer.
Bien que ce problème touche aussi bien les garçons que les filles, 99 % des deepfakes nus réalisés concernent des femmes et des filles. De plus, de nombreux outils de nudification ne fonctionnent pas sur les images de garçons et d'hommes. Nos recherches suggèrent que les deepfakes nus deviennent un autre outil utilisé pour commettre des violences contre les femmes et les filles.
Ce qui doit changer
Créer, posséder ou partager une image deepfake nue d'un enfant est illégal et classé comme matériel pédopornographique (CSAM). Pourtant, les outils qui les créent ne sont actuellement pas illégaux et les enfants sont de plus en plus souvent en contact avec eux.
Interdire les outils de nudification
Nos recherches ont révélé que 84 % des adolescents et 80 % des parents sont favorables à l'interdiction des outils de nudification pour tous au Royaume-Uni, y compris les adultes.
À la Chambre des communes, le député Jess Asato a exhorté le gouvernement écouter la voix des parents et des enfants sur cette question en interdisant les applications de nudification.
Mme Asato a déclaré : « L’augmentation des deepfakes de nudité est un problème de plus en plus préoccupant, en particulier dans les écoles. Une étude menée par Internet Matters a montré les dommages qu’ils causent déjà aux enfants, et le potentiel de cette technologie à causer des dommages encore plus importants. En permettant aux programmes de nudification de rester facilement accessibles, nous exposons nos enfants au risque d’être blessés, voire criminalisés. C’est pourquoi j’ai appelé le gouvernement à interdire les outils et applications de nudification. »
L’interdiction des outils de nudification était l’une des principales recommandations de notre rapport, Le nouveau visage des abus numériques : les expériences des enfants face aux deepfakes nus.
La responsabilité de protéger les enfants contre les abus sexuels de type deepfake ne peut pas incomber aux écoles et aux parents. L'industrie et le gouvernement doivent intervenir. L'interdiction des outils de nudification contribuerait à protéger les enfants contre les dangers en ligne. En outre, elle soutiendrait l'objectif ambitieux du gouvernement de réduire de moitié la violence à l'égard des femmes et des filles au cours de la prochaine décennie.
Ressources pour soutenir les familles
En attendant, nous souhaitons aider les familles à mieux se protéger en ligne. Découvrez les ressources suivantes créées pour les aider à s'y retrouver dans cette nouvelle tendance inquiétante.