Résumé
- Un nouveau rapport d'Internet Matters exhorte le nouveau gouvernement à sévir contre « l'épidémie » d'images sexuelles générées par l'IA après qu'une enquête révèle que 13 % des adolescents ont eu une expérience avec des deepfakes nus.
- La possibilité d'abus incontrôlés de deepfakes nus a semé la peur dans la vie de nombreux enfants ; plus de la moitié des adolescents (55 %) pensent qu'il serait pire d'avoir une deepfake nue créée et partagée d'eux qu'une vraie image.
- Internet Matters appelle à l'interdiction des outils de « nudification », car le rapport avertit qu'il est tout simplement trop facile de créer des deepfakes nus en ligne.
- Les réformes recommandées au programme scolaire devraient inclure l’enseignement aux enfants de la manière d’identifier les deepfakes et d’utiliser la technologie de l’IA de manière responsable.
Internet Matters, l'association à but non lucratif de premier plan en Grande-Bretagne pour la sécurité des enfants en ligne, publie aujourd'hui (mardi 22 octobre) un nouveau rapport, « Le nouveau visage de la maltraitance numérique : les expériences des enfants face aux deep fakes nus »Le rapport estime que quatre enfants dans chaque classe de trente ans ont eu une expérience de « deepfakes nudifiés » et appelle le gouvernement à introduire une nouvelle législation pour lutter contre la croissance des faux nus générés par l'IA générative (GenAI) de jeunes, en particulier de filles, en interdisant les applications dites de « nudification ».
Le rapport explique comment GenAI a rendu rapide, simple et peu coûteuse la production d’images explicites non consensuelles de personnes ordinaires, y compris d’enfants. Il fait valoir que la législation actuelle ne suit pas le rythme ; les modèles d’IA utilisés pour générer des images sexuelles d’enfants ne sont actuellement pas illégaux au Royaume-Uni, bien que la possession d’une image sexuelle truquée d’un enfant soit une infraction pénale.
Si la technologie deepfake peut être utilisée à des fins positives, comme l’éducation ou la formation, les faits suggèrent que la majorité des deepfakes sont créés pour nuire, notamment par le biais d’abus sexuels, d’exploitation sexuelle à des fins financières, de désinformation, d’escroqueries ou de fraudes. Autrefois un phénomène principalement destiné aux célébrités féminines, la création de fausses images nues est désormais plus largement accessible et a un impact sur les enfants, les filles étant très probablement la cible.
Le rapport d'Internet Matters publié aujourd'hui met en évidence la grande disponibilité et la facilité d'utilisation des outils de « nudification » en ligne. On estime que 99 % des deepfakes nus représentent des filles et des femmes, et les modèles de « nudification » ne fonctionnent souvent pas sur les images de garçons et d'hommes. Les images sexuelles générées par l'IA mettant en scène des enfants ont été utilisées pour faciliter les abus sexuels entre enfants, les abus sexuels perpétrés par des adultes et la sextorsion et peuvent avoir un impact profond sur les victimes, entraînant l'apparition d'anxiété, de dépression et de pensées suicidaires.
Des adolescents ont utilisé des applications de « nudification » pour générer des images sexuellement explicites de leurs camarades de classe, partageant souvent ces images sur des chats de groupe et sur les réseaux sociaux. Des filles ont déclaré à Internet Matters qu'elles se sentiraient horrifiées et honteuses et qu'elles craignaient qu'un professeur ou un parent puisse penser qu'elles étaient sincères.
Le rapport d'aujourd'hui détaille une enquête représentative à l'échelle nationale d'Internet Matters auprès de 2,000 3 parents d'enfants âgés de 17 à 1,000 ans et de 9 17 enfants âgés de 2024 à XNUMX ans au Royaume-Uni, menée par Opinium en juin XNUMX. L'enquête montre :
- Un nombre important d'enfants ont déjà eu l'expérience d'un deepfake de nudité. Au total, 13 % des enfants ont déjà eu l'expérience d'un deepfake de nudité (en envoyant ou en recevant un, en rencontrant un deepfake de nudité en ligne, en utilisant une application de nudification ou en connaissant quelqu'un qui a utilisé une application de nudification). Cela signifie qu'environ un demi-million (529,632 4) d'adolescents au Royaume-Uni, soit 30 adolescents dans une classe de XNUMX, ont déjà eu l'expérience d'un deepfake de nudité.
- Les adolescents (18 %) sont deux fois plus susceptibles que les adolescentes (9 %) de signaler une expérience avec un deepfake de nu, cependant les garçons sont plus susceptibles d'être les créateurs de deepfakes de nus, et les filles sont plus susceptibles d'en être les victimes.
- Les garçons et les enfants vulnérables sont plus susceptibles d'avoir été confrontés à un deepfake de nu. 10 % des garçons âgés de 13 à 17 ans ont vu un deepfake de nu en ligne, contre 2 % des filles du même âge. Un quart des enfants vulnérables ont eu une expérience avec un deepfake de nu, contre 11 % des enfants non vulnérables.
- Les adolescents considèrent que les abus de deepfakes nus sont pires que les abus d'images comportant de vraies photos. Plus de la moitié des adolescents (55 %) pensent qu'il serait pire de voir une deepfake nue créée et partagée d'eux plutôt qu'une vraie image.
- La plupart des familles ont peu ou pas de compréhension des deepfakes, près des deux tiers des enfants (61 %) et près de la moitié des parents (45 %) déclarant qu'ils ne connaissent pas ou ne comprennent pas le terme « deepfake ».
- Les familles souhaitent que le gouvernement et les entreprises technologiques fassent davantage pour lutter contre les deepfakes nus. 84 % des adolescents et 80 % des parents estiment que les outils de nudification devraient être interdits à tous au Royaume-Uni, y compris aux adultes.
- Les familles s’accordent également à dire qu’il faut sensibiliser les enfants aux deepfakes. Seuls 11 % des adolescents ont été informés des deepfakes à l’école, et seulement 6 % des deepfakes de photos nues. La grande majorité des adolescents (92 %) et des parents (88 %) estiment que les enfants devraient être informés des risques liés aux deepfakes à l’école.
Le rapport plaide en faveur d'une nouvelle législation et de mesures de la part de l'industrie pour protéger les enfants contre les abus sexuels contrefaits et soutient que l'on ne peut pas s'attendre à ce que les parents et les écoles protègent seuls les enfants. Il appelle à l'action, notamment :
- Le gouvernement doit interdire les outils de nudification en priorité au cours de ce Parlement et renforcer la loi sur la sécurité en ligne avec des codes de pratique sur les préjudices sexistes et les abus entre enfants.
- Les entreprises technologiques vont prendre des mesures plus fermes en supprimant l'accès aux outils de nudification sur les moteurs de recherche et les magasins d'applications.
- Le programme national sera mis à jour pour intégrer l’enseignement de l’éducation critique aux médias.
Pour coïncider et soutenir le rapport d'aujourd'hui, Internet Matters lance de nouvelles ressources, notamment des conseils d'experts pour les parents sur la protection des enfants contre les deepfakes.
Carolyn Bunting MBE, co-PDG d'Internet Matters, a déclaré :
« L’IA a permis de produire des deepfakes très réalistes d’enfants en quelques clics. Les deepfakes nus constituent une atteinte profonde à l’autonomie et à la dignité corporelle, et leur impact peut briser la vie. Les outils de nudification étant largement axés sur les femmes, ils ont un impact disproportionné sur les filles.
« Les enfants nous ont fait part de leur peur que cela puisse leur arriver sans qu'ils le sachent et par des personnes qu'ils ne connaissent pas. Ils considèrent que les abus liés aux images deepfakes constituent une violation potentiellement plus grave, car ils ne peuvent rien y faire. »
« Les abus liés aux deepfakes peuvent arriver à n’importe qui, à n’importe quel moment. Les parents ne devraient pas être laissés seuls face à ce problème préoccupant. Il est temps que le gouvernement et l’industrie prennent des mesures pour l’empêcher en sévissant contre les entreprises qui produisent et promeuvent ces outils utilisés pour abuser des enfants. »