Les enfants et les jeunes ne comprennent peut-être pas encore la loi. En tant que tels, ils pourraient avoir du mal à séparer les outils nuisibles de ceux qui favorisent un divertissement inoffensif.
Contenu et comportement inappropriés
La curiosité et la nouveauté d'un outil d'IA de déshabillage pourraient exposer les enfants à contenu inapproprié. Parce qu’il ne montre pas une « vraie » image nue, ils pourraient alors penser qu’il est acceptable d’utiliser ces outils. S'ils partagent ensuite l'image avec leurs amis « pour rire », ils enfreignent probablement la loi sans le savoir.
Sans l'intervention d'un parent ou d'un tuteur, ils pourraient continuer à adopter ce comportement, même si cela blesse les autres.
Risques de confidentialité et de sécurité
De nombreux outils d’IA générative légitimes nécessitent un paiement ou un abonnement pour créer des images. Ainsi, si un site Web deepnude est gratuit, il peut produire des images de mauvaise qualité ou avoir une sécurité laxiste. Si un enfant télécharge une image habillée de lui-même ou d’un ami, le site ou l’application pourrait en faire un usage abusif. Cela inclut le « deepnude » qu’il crée.
Il est peu probable que les enfants utilisant ces outils lisent les conditions d'utilisation ou la politique de confidentialité, ils courent donc un risque qu'ils ne comprennent pas.
Création de matériel d’abus sexuel sur des enfants (CSAM)
L'IWF a également signalé que des cas de Les CSAM « auto-générés » circulant en ligne ont augmenté de 417 % de 2019 à 2022. Notez que le terme « auto-généré » est imparfait car, dans la plupart des cas, les agresseurs contraignent les enfants à créer ces images.
Cependant, avec l’utilisation de l’IA de déshabillage, les enfants peuvent sans le savoir créer du CSAM généré par l’IA. S'ils téléchargent une photo habillée d'eux-mêmes ou d'un autre enfant, quelqu'un pourrait « nudifier » cette image et la partager plus largement.
Cyberintimidation, abus et harcèlement
Tout comme d'autres types de deepfakes, les gens peuvent utiliser des outils d'IA pour se déshabiller ou des « deepnudes » pour intimider les autres. Cela pourrait inclure de prétendre qu'un pair a envoyé une image nue d'eux-mêmes alors qu'il ne l'a pas fait. Ou bien, cela pourrait inclure l’utilisation de l’IA pour créer un nu avec des caractéristiques dont les intimidateurs se moquent ensuite.
Il est important de se rappeler que partager des images nues de pairs est à la fois illégal et abusif.