Questions Internet
Rechercher

Qu'est-ce qu'un deepfake ?

La technologie Deepfake est un type d’intelligence artificielle qui peut propager de la désinformation et de la désinformation. Restez informé pour contribuer à protéger les enfants et les jeunes en ligne.

Une femme utilisant une tablette avec des icônes de sécurité autour d'elle.

Conseils en un coup d'œil

Obtenez des informations et des conseils rapides sur la technologie deepfake.

Qu’est-ce que ça veut dire?

Les deepfakes sont des vidéos ou des enregistrements audio qui manipulent l'image d'une personne. Ils semblent alors faire/dire quelque chose qu’ils n’ont jamais fait.

Quels sont les risques?

Les deepfakes ont le potentiel de diffuser de fausses informations ou de la propagande. Ils peuvent également jouer un rôle dans la cyberintimidation et les escroqueries.

Comment protéger les enfants

Aider les enfants à développer leur esprit critique en ayant des conversations régulières est un élément clé pour les protéger du danger.

Qu'est-ce qu'un deepfake ?

Les deux principaux types de deepfakes sont la vidéo et l’audio. Les deepfakes vidéo manipulent l’apparence d’une personne tandis que les deepfakes audio manipulent sa voix.

Les deepfakes vidéo et audio fonctionnent souvent ensemble pour créer du contenu trompeur. Les personnes qui créent ce faux contenu pourraient avoir des intentions innocentes. Par exemple, ils pourraient réaliser une vidéo d’une célébrité faisant une danse amusante pour faire rire les gens. Cependant, même les meilleures intentions peuvent conduire à la désinformation et à la confusion.

Que sont les deepfakes vidéo ?

Les deepfakes vidéo sont le type le plus courant. Les personnes qui créent ces vidéos utilisent intelligence artificielle pour remplacer le visage ou le corps d'une personne dans une séquence vidéo existante. Les exemples incluent faire dire à une célébrité quelque chose de controversé ou un présentateur de nouvelles rapportant des histoires fabriquées.

Dans certains deepfakes vidéo, un doubleur imite la célébrité ou l'audio original pour fournir la nouvelle voix. Alternativement, le créateur peut également utiliser le clonage vocal.

Qu’est-ce que le clonage vocal ?

Le clonage vocal, ou deepfakes audio, manipule les voix plutôt que la vidéo pour ressembler à quelqu'un d'autre. Une arnaque de plus en plus courante utilise le clonage vocal pour cibler des personnes. Pour les parents, ils pourraient recevoir un appel frénétique de leur enfant qui a immédiatement besoin d’argent dans un certain but. Ces escroqueries sont extrêmement convaincantes et ont entraîné des pertes financières.

Quelqu’un pourrait également utiliser un deepfake audio pour intimider une autre personne. Par exemple, ils pourraient imiter la voix d’un camarade de classe pour donner l’impression qu’ils ont dit quelque chose qu’ils n’ont pas dit.

Quel que soit le type de deepfake, il est important de se rappeler que quelqu'un doit utiliser un outil d'IA pour le créer. Les créateurs de Deepfake ne sont pas toujours clairs, mais l’IA ne génère pas automatiquement ce contenu.

Quels sont les préjudices potentiels ?

Les deepfakes peuvent affecter les gens de diverses manières et exposer les enfants et les jeunes à des dangers en ligne.

Les enfants et les jeunes peuvent avoir du mal à reconnaître les fausses vidéos et audios, d’autant plus que la technologie devient de plus en plus sophistiquée. De plus, l’accessibilité accrue aux outils d’IA pourrait signifier que davantage de personnes peuvent créer des deepfakes. Cela peut donc accroître la portée des préjudices potentiels.

Fausses informations et propagande

Les utilisateurs en ligne peuvent utiliser les deepfakes pour :

  • diffuser de fausses informations ;
  • ruiner la confiance dans les personnalités publiques ; ou
  • manipuler les conversations autour de la politique et d’autres questions importantes.

Les enfants développent encore leur esprit critique et sont donc particulièrement susceptibles de croire ce type d’informations.

Dommages à la réputation

Certains rapports associent les deepfakes à la vengeance pornographique. Dans ces cas, l'auteur ajoute la victime à un contenu compromettant tel que des vidéos ou des images pornographiques.

L’auteur pourrait alors utiliser ces deepfakes pour contraindre les victimes. Cela pourrait inclure l’exigence d’un paiement ou d’images réelles pour les empêcher de partager plus largement les deepfakes.

Cyberintimidation, harcèlement et abus

Les auteurs peuvent également utiliser des deepfakes pour intimider les autres en créant des vidéos destinées à se moquer, à les intimider ou à les embarrasser.

La nature des deepfakes peut rendre le harcèlement plus grave pour la victime. Cela pourrait même friser un comportement abusif.

A Rapport 2023 de l'Internet Watch Foundation (IWF) a mis en garde contre l’augmentation du matériel pédopornographique (CSAM) généré par l’IA. Ils ont identifié plus de 20,000 XNUMX de ces images publiées sur un web sombre Forum CSAM sur une période d'un mois. Ils ont jugé que plus de la moitié d’entre eux étaient « les plus susceptibles d’être criminels ».

Bien que ce chiffre n'inclue pas les deepfakes, l'IWF affirme que « le contenu vidéo réaliste en plein écran deviendra monnaie courante ». Ils notent également qu’il existe déjà de courtes vidéos CSAM générées par l’IA. « Ces mesures ne feront que devenir plus réalistes et plus répandues. »

Pertes financières et escroqueries

Certaines escroqueries de deepfake audio ou de clonage vocal font perdre de l’argent aux victimes. Des personnalités publiques ont également vu leur image utilisée pour promouvoir des investissements frauduleux.

Un exemple est celui de YouTuber Mr Beast, qui semble offrir de nouveaux iPhones à ses abonnés. Cependant, ce n'était pas vraiment lui. YouTube est populaire auprès des enfants et des adolescents. Ainsi, les deepfakes qui imitent leurs créateurs préférés peuvent les exposer à ces escroqueries.

Bon, restons dans le domaine de la technologie, car l'intelligence artificielle alimente un boom de la cybercriminalité. Le coût devrait atteindre 8 XNUMX milliards de dollars cette année, soit plus que l'économie du Japon selon une estimation des experts en cybersécurité. Le plus grand YouTubeur du monde fait partie de ceux qui ont vu leur image vidéo manipulée par l'IA pour promouvoir une arnaque, et même les présentateurs de la BBC ne sont pas à l'abri. Regardez ça : les résidents britanniques n'ont plus besoin de travailler, c'est l'annonce faite par notre invité d'aujourd'hui, Elon Musk. Qui dévoilera un nouveau projet d'investissement pendant que la connexion se poursuit. Je vous en dirai plus sur ce projet qui ouvre de nouvelles opportunités pour les Britanniques de recevoir un retour sur investissement. Plus de trois milliards de dollars ont été investis dans le nouveau projet, et il est déjà opérationnel en ce moment.

C'est étrange, n'est-ce pas ? On dirait que c'est moi, on dirait que c'est moi, vous me direz. C'est un peu difficile de comprendre, n'est-ce pas ? J'ai donc parlé à Stephanie Hair, une experte indépendante en technologie, devrais-je dire.

Stephanie Hair, experte indépendante en technologie, est interviewée sur la difficulté de repérer les deepfakes.

« Beaucoup de gens ont du mal à repérer ces choses-là », explique Hair. « Et vous n’êtes pas le premier et je ne pense pas que vous serez le dernier, malheureusement, car rien ne permet vraiment d’empêcher que cela se produise. Il n’existe pas vraiment de réglementation pour obliger quiconque à rendre des comptes. Je ne sais pas si vous seriez content de savoir qui vous ferait plaisir si vous vouliez intenter un procès par exemple. Maintenant, nous sommes allés sur Facebook et nous avons dit qu’il fallait retirer cela, c’est un faux et c’est ce qu’ils ont fait… ils l’ont fait, Meta l’a fait depuis. Cependant, euh, il existe beaucoup plus de vidéos deep fake qui dirigent les spectateurs vers des escroqueries et le problème est que les gens se séparent en fait de leur propre argent parce qu’ils croient qu’elles sont authentiques et c’est là le problème, comment les gens font-ils la différence entre ce qui est vrai et ce qui ne l’est pas ? »

« Honnêtement, je ne suis pas sûr que vous essayiez de le dire à partir de ces limitations techniques, car nous avons pu voir, même avec votre vidéo, que certaines choses n'étaient pas tout à fait correctes. J'ai clairement indiqué que ce n'était pas légitime. Ce que vous voulez vraiment faire, c'est vous demander si cela semble trop beau pour être vrai, c'est probablement le cas. Si cela semble un peu bizarre, c'est probablement le cas. Euh, rien n'est gratuit. »

« Ce n'est certainement pas le cas et j'ai tweeté ou partagé un article à ce sujet écrit par la BBC qui vous donne les meilleurs conseils pour repérer les vidéos deep fake. »

close Fermer la vidéo

Comment protéger les enfants des méfaits des deepfakes

La meilleure façon de protéger les enfants en ligne est de leur donner les outils nécessaires pour repérer les dangers et obtenir de l'aide. Voici comment vous pouvez les aider à s'y retrouver dans les deepfakes.

La communication ouverte est la clé

Entamez tôt et souvent des conversations sur la sécurité en ligne. Discutez du concept de deepfakes. Expliquez comment les gens utilisent l'IA pour les créer et les dangers potentiels qu'elles représentent.

Développer l’éducation médiatique des enfants

Développez les capacités de pensée critique de votre enfant en l'encourageant à remettre en question ce qu'il voit et entend en ligne. Apprenez-leur à rechercher des indices indiquant qu’une vidéo pourrait être fausse. Les exemples incluent des mouvements non naturels ou des incohérences dans la qualité audio et vidéo.

Définir des limites et des paramètres

Sur votre réseau haut débit ou mobile domestique, configurez le contrôle parental pour limiter l'exposition à des contenus inappropriés. Faites de même avec les applications que votre enfant utilise. Ensuite, travaillez ensemble pour définir les limites de l’endroit et du moment d’utilisation des appareils.

Parlons de citoyenneté numérique

Aidez votre enfant à développer un comportement positif en ligne. Découragez-les de créer ou de partager de faux contenus mettant en vedette d’autres personnes, même s’ils ne le font que pour plaisanter.

Montrez-leur comment vérifier les sources

Discutez avec votre enfant de l’importance de vérifier les informations avant de les partager. Encouragez-les à rechercher des sources fiables et des sites Web de vérification des faits avant de croire tout ce qu'ils voient en ligne.

Gardez les choses privées

Parlez à vos enfants de la confidentialité en ligne et expliquez-leur l’importance de contrôler leur empreinte en ligne. N'oubliez pas que n'importe qui peut utiliser des images publiques de votre enfant à n'importe quelle fin. Alors, limitez les images que vous partagez de votre enfant et apprenez-lui à limiter les photos qu’il partage d’eux-mêmes.

Guide sur les deepfakes pour les parents

Derniers articles sur l'IA

Trouvez plus d'assistance concernant les deepfakes et d'autres types de contenu d'IA avec ces ressources.