MENU

Qu'est-ce qu'un deepfake ?

La technologie Deepfake est un type d’intelligence artificielle qui peut propager de la désinformation et de la désinformation. Restez informé pour contribuer à protéger les enfants et les jeunes en ligne.

Une maman tient une tablette, entourée d’icônes de sécurité.

Conseils en un coup d'œil

Obtenez des informations et des conseils rapides sur la technologie deepfake.

Qu’est-ce que ça veut dire?

Les deepfakes sont des vidéos ou des enregistrements audio qui manipulent l'image d'une personne. Ils semblent alors faire/dire quelque chose qu’ils n’ont jamais fait.

En savoir plus sur les deepfakes

Quels sont les risques?

Les deepfakes ont le potentiel de diffuser de fausses informations ou de la propagande. Ils peuvent également jouer un rôle dans la cyberintimidation et les escroqueries.

En savoir plus sur les méfaits

Comment protéger les enfants

Aider les enfants à développer leur esprit critique en ayant des conversations régulières est un élément clé pour les protéger du danger.

Voir les conseils de sécurité

Qu'est-ce qu'un deepfake ?

Les deux principaux types de deepfakes sont la vidéo et l’audio. Les deepfakes vidéo manipulent l’apparence d’une personne tandis que les deepfakes audio manipulent sa voix.

Les deepfakes vidéo et audio fonctionnent souvent ensemble pour créer du contenu trompeur. Les personnes qui créent ce faux contenu pourraient avoir des intentions innocentes. Par exemple, ils pourraient réaliser une vidéo d’une célébrité faisant une danse amusante pour faire rire les gens. Cependant, même les meilleures intentions peuvent conduire à la désinformation et à la confusion.

Que sont les deepfakes vidéo ?

Les deepfakes vidéo sont le type le plus courant. Les personnes qui créent ces vidéos utilisent intelligence artificielle pour remplacer le visage ou le corps d'une personne dans une séquence vidéo existante. Les exemples incluent faire dire à une célébrité quelque chose de controversé ou un présentateur de nouvelles rapportant des histoires fabriquées.

Dans certains deepfakes vidéo, un doubleur imite la célébrité ou l'audio original pour fournir la nouvelle voix. Alternativement, le créateur peut également utiliser le clonage vocal.

Qu’est-ce que le clonage vocal ?

Le clonage vocal, ou deepfakes audio, manipule les voix plutôt que la vidéo pour ressembler à quelqu'un d'autre. Une arnaque de plus en plus courante utilise le clonage vocal pour cibler des personnes. Pour les parents, ils pourraient recevoir un appel frénétique de leur enfant qui a immédiatement besoin d’argent dans un certain but. Ces escroqueries sont extrêmement convaincantes et ont entraîné des pertes financières.

Quelqu’un pourrait également utiliser un deepfake audio pour intimider une autre personne. Par exemple, ils pourraient imiter la voix d’un camarade de classe pour donner l’impression qu’ils ont dit quelque chose qu’ils n’ont pas dit.

Quel que soit le type de deepfake, il est important de se rappeler que quelqu'un doit utiliser un outil d'IA pour le créer. Les créateurs de Deepfake ne sont pas toujours clairs, mais l’IA ne génère pas automatiquement ce contenu.

Quels sont les préjudices potentiels ?

Les deepfakes peuvent affecter les gens de diverses manières et exposer les enfants et les jeunes à des dangers en ligne.

Les enfants et les jeunes peuvent avoir du mal à reconnaître les fausses vidéos et audios, d’autant plus que la technologie devient de plus en plus sophistiquée. De plus, l’accessibilité accrue aux outils d’IA pourrait signifier que davantage de personnes peuvent créer des deepfakes. Cela peut donc accroître la portée des préjudices potentiels.

Fausses informations et propagande 

Les utilisateurs en ligne peuvent utiliser les deepfakes pour :

  • diffuser de fausses informations ;
  • ruiner la confiance dans les personnalités publiques ; ou
  • manipuler les conversations autour de la politique et d’autres questions importantes.

Les enfants développent encore leur esprit critique et sont donc particulièrement susceptibles de croire ce type d’informations.

Dommages à la réputation

Certains rapports associent les deepfakes à la vengeance pornographique. Dans ces cas, l'auteur ajoute la victime à un contenu compromettant tel que des vidéos ou des images pornographiques.

L’auteur pourrait alors utiliser ces deepfakes pour contraindre les victimes. Cela pourrait inclure l’exigence d’un paiement ou d’images réelles pour les empêcher de partager plus largement les deepfakes. Apprenez-en davantage sur cette pratique avec notre guide de la sextorsion.

Cyberintimidation, harcèlement et abus

Les auteurs peuvent également utiliser des deepfakes pour intimider les autres en créant des vidéos destinées à se moquer, à les intimider ou à les embarrasser.

La nature des deepfakes peut rendre le harcèlement plus grave pour la victime. Cela pourrait même friser un comportement abusif. Découvrez à quoi pourrait ressembler la maltraitance entre enfants.

A Rapport 2023 de l'Internet Watch Foundation (IWF) a mis en garde contre l’augmentation du matériel pédopornographique (CSAM) généré par l’IA. Ils ont identifié plus de 20,000 XNUMX de ces images publiées sur un web sombre Forum CSAM sur une période d'un mois. Ils ont jugé que plus de la moitié d’entre eux étaient « les plus susceptibles d’être criminels ».

Bien que ce chiffre n'inclue pas les deepfakes, l'IWF affirme que « le contenu vidéo réaliste en plein écran deviendra monnaie courante ». Ils notent également qu’il existe déjà de courtes vidéos CSAM générées par l’IA. « Ces mesures ne feront que devenir plus réalistes et plus répandues. »

Pertes financières et escroqueries

Certaines escroqueries de deepfake audio ou de clonage vocal font perdre de l’argent aux victimes. Des personnalités publiques ont également vu leur image utilisée pour promouvoir des investissements frauduleux.

Un exemple est celui de YouTuber Mr Beast, qui semble offrir de nouveaux iPhones à ses abonnés. Cependant, ce n'était pas vraiment lui. YouTube est populaire auprès des enfants et des adolescents. Ainsi, les deepfakes qui imitent leurs créateurs préférés peuvent les exposer à ces escroqueries.

Exemples de vidéos d’arnaque deepfake
Afficher la transcription de la vidéo
Bon, restons dans la technologie car l’intelligence artificielle alimente un boom de la cybercriminalité. Le coût devrait atteindre 8 XNUMX milliards de dollars cette année, soit plus que l’économie du Japon, selon une estimation d’experts en cybersécurité. Le plus grand YouTuber du monde fait partie de ceux dont l'image vidéo a été manipulée par l'IA pour promouvoir une arnaque, et même les présentateurs de la BBC ne sont pas à l'abri.

Regardez ceci : les résidents britanniques n’ont plus besoin de travailler, c’est l’annonce faite par notre invité d’aujourd’hui, Elon Musk. Qui dévoilera un nouveau projet d'investissement pendant que la connexion se poursuit. Je vais vous en dire plus sur ce projet qui ouvre de nouvelles opportunités aux Britanniques pour obtenir un retour sur investissement. Plus de trois milliards de dollars ont été investis dans le nouveau projet, qui est déjà opérationnel à l'heure actuelle.

Étrange, n'est-ce pas ? Ça me ressemble, ça me ressemble, direz-vous. C'est un peu difficile, n'est-ce pas, de comprendre ça ? J'ai donc parlé à Stephanie Hair, elle est une experte indépendante en technologie, devrais-je dire.

Stephanie Hair, experte indépendante en technologie, est interviewée sur la difficulté de repérer les deepfakes.

«Beaucoup de gens ont du mal à repérer ces choses», dit Hair. " Et vous n'êtes pas le premier et je ne pense pas que vous serez le dernier, malheureusement, car rien ne peut vraiment empêcher que cela se produise. Il n’existe pas vraiment de réglementation pour demander des comptes à quiconque. Je ne sais pas de qui vous seriez heureux si vous vouliez poursuivre en justice par exemple. Maintenant, nous sommes allés sur Facebook et avons dit que vous deviez supprimer cela, c'est faux et c'est fait... ils l'ont fait, Meta l'a fait depuis. Cependant, euh, il existe de nombreuses autres fausses vidéos qui pointent les téléspectateurs vers des escroqueries et le souci est que les gens se séparent de leur propre argent parce qu'ils croient qu'ils sont authentiques et c'est le souci, comment les gens font-ils la distinction entre ce qui est réel et qu'est-ce qui ne l'est pas ?

« Honnêtement, je ne suis pas sûr que cela soit dû aux limitations techniques, car nous avons pu voir, même avec votre vidéo, que certaines choses n'allaient pas tout à fait. J'ai dit très clairement que ce n'était pas légitime. Ce que vous voulez vraiment faire, c’est vous demander si cela semble trop beau pour être vrai, c’est probablement le cas. Si cela semble un peu bizarre, c'est probablement le cas. Euh, il n'y a rien de tel qu'un déjeuner gratuit.

"Il n'y en a certainement pas et j'ai tweeté ou partagé un article à ce sujet écrit par la BBC qui vous donne les meilleurs conseils sur la façon de repérer les fausses vidéos."

Comment protéger les enfants des méfaits des deepfakes

La meilleure façon d’assurer la sécurité des enfants en ligne est de leur donner les outils nécessaires pour détecter les dangers et obtenir de l’aide. Voici comment vous pouvez les aider à naviguer dans les deepfakes.

La communication ouverte est la clé

Entamez tôt et souvent des conversations sur la sécurité en ligne. Discutez du concept de deepfakes. Expliquez comment les gens utilisent l'IA pour les créer et les dangers potentiels qu'elles représentent.

Développer l’éducation médiatique des enfants

Développez les capacités de pensée critique de votre enfant en l'encourageant à remettre en question ce qu'il voit et entend en ligne. Apprenez-leur à rechercher des indices indiquant qu’une vidéo pourrait être fausse. Les exemples incluent des mouvements non naturels ou des incohérences dans la qualité audio et vidéo.

RENSEIGNEZ-VOUS SUR LES FAUX INFORMATIONS

Définir des limites et des paramètres

Sur votre réseau haut débit ou mobile domestique, configurez le contrôle parental pour limiter l'exposition à des contenus inappropriés. Faites de même avec les applications que votre enfant utilise. Ensuite, travaillez ensemble pour définir les limites de l’endroit et du moment d’utilisation des appareils.

OBTENIR UN MODÈLE D'ACCORD FAMILIAL

Parlons de citoyenneté numérique

Aidez votre enfant à développer un comportement positif en ligne. Découragez-les de créer ou de partager de faux contenus mettant en vedette d’autres personnes, même s’ils ne le font que pour plaisanter.

VOIR LES MEILLEURES MANIÈRES INTERNET

Montrez-leur comment vérifier les sources

Discutez avec votre enfant de l’importance de vérifier les informations avant de les partager. Encouragez-les à rechercher des sources fiables et des sites Web de vérification des faits avant de croire tout ce qu'ils voient en ligne.

Gardez les choses privées

Parlez à vos enfants de la confidentialité en ligne et expliquez-leur l’importance de contrôler leur empreinte en ligne. N'oubliez pas que n'importe qui peut utiliser des images publiques de votre enfant à n'importe quelle fin. Alors, limitez les images que vous partagez de votre enfant et apprenez-lui à limiter les photos qu’il partage d’eux-mêmes.

Derniers articles et guides sur l'IA

Trouvez plus d'assistance concernant les deepfakes et d'autres types de contenu d'IA avec ces ressources.

Était-ce utile?
Dites-nous comment nous pouvons l'améliorer