MENU

Qu’est-ce que l’IA générative (Gen-AI) et quel impact peut-elle avoir sur le bien-être des enfants ?

Regardez l'intégralité du #Take20Talk sur l'impact de l'intelligence artificielle sur le bien-être des enfants.

Ce mois-ci, nous avons participé au #Take20Talk de l’Anti-Bullying Alliance.

Découvrez l’utilisation de l’IA générative par les enfants et ses impacts avant nos prochaines recherches sur l’IA générative et l’éducation.

Nous avons été ravis de participer à un #Take20Talk avec l'Anti-Bullying Alliance. La conférence nous a donné l’occasion de discuter de l’impact de l’IA générative sur le bien-être numérique des enfants.

Au cours de la séance, nous avons discuté de l’utilisation de l’IA générative par les enfants, des avantages et des risques qu’elle présente, ainsi que du paysage politique actuel entourant cette technologie en évolution. Cette présentation précède nos prochaines recherches sur l’IA générative et l’éducation, qui seront publiées au début de l’année prochaine.

Qu'est-ce que l'IA générative ?

L'IA générative (Gen-AI) est une forme d'intelligence artificielle qui produit du texte, des images et du son originaux. Les modèles Gen-AI sont formés sur des ensembles de données utilisés pour créer du nouveau contenu, en s'appuyant sur les modèles appris au cours du processus de formation.

Utilisations de la génération IA Traitement du langage naturel (PNL). Il s’agit d’une branche de l’IA qui « vise à aider les ordinateurs à comprendre, interpréter et générer le langage humain ». Ces technologies offrent de nombreuses opportunités passionnantes aux enfants. Cependant, comme pour toutes les nouvelles technologies, outre les avantages, il existe également des risques potentiels à connaître.

Quelles sont les opportunités de la Gen-AI ?

Expériences d'apprentissage personnalisées

L'IA générative peut aider les enseignants à personnaliser leurs plans et supports de cours pour mieux répondre aux différents besoins d'apprentissage de leurs élèves. Cela garantit donc une expérience d’apprentissage plus engageante et inclusive pour des classes diversifiées.

En fait, les enseignants utilisent déjà des outils d’IA générative pour fournir un soutien personnalisé aux élèves ayant des besoins éducatifs spéciaux et des handicaps (SEND).

Assistance via des lignes d'assistance

Les enfants peuvent bénéficier de lignes d’assistance téléphonique utilisant l’IA générative. Les lignes d'assistance sociale et de santé mentale fondées sur l'IA générative peuvent fournir un soutien très réactif et personnalisé aux jeunes. Cela peut conduire à une assistance immédiate et améliorer l’efficacité globale du soutien humain.

Par exemple, Jeunesse, J'écoute est un service de santé mentale en ligne qui utilise la technologie de l'IA générative pour offrir un soutien 24 heures sur 7, XNUMX jours sur XNUMX, aux enfants partout au Canada. Grâce à la PNL, ce service analyse et correspond au style de communication des jeunes. Cela oriente à son tour les enfants vers le canal de service spécifique dont ils ont besoin, qu’il s’agisse d’un soutien en cas de détresse émotionnelle, de problèmes d’intimidation ou d’autres préoccupations.

Les lignes d'assistance offrent un espace sûr et anonyme permettant aux jeunes d'exprimer leurs sentiments et leurs préoccupations sans crainte d'être jugés. Cependant, même si les chatbots des lignes d’assistance peuvent fournir des réponses rapides, ils manquent de nuances et d’adaptabilité qu’offre l’assistance humaine. Ils auront donc du mal à remplacer totalement l’efficacité des interactions humaines.

Chatbots de soutien émotionnel

En plus de soutenir et d’orienter les jeunes au téléphone, les chatbots IA peuvent servir de compagnons virtuels. Dans certains cas, ils peuvent apporter un soutien émotionnel aux enfants qui ont du mal à se faire des amis ou à faire face à des difficultés sociales. De plus, ces chatbots peuvent aider les enfants qui se sentent seuls ou qui ont du mal à partager leurs sentiments avec les autres.

Avec les bonnes garanties en place, les chatbots peuvent également aider les enfants aux prises avec l’anxiété sociale. Ces outils peuvent offrir un espace sans jugement pour engager des conversations et développer et pratiquer des interactions sociales.

Un exemple de ce type de chatbot est Harlie. Harlie est une application pour smartphone qui utilise la technologie IA et les algorithmes PNL pour parler avec les humains. Cependant, plutôt que de simplement répondre aux questions, Harlie encourage le dialogue en posant des questions à l'utilisateur. De plus, avec la permission de l’utilisateur, Harlie peut capturer des informations sur les modèles de parole pour les partager avec les équipes de santé et de recherche et proposer une thérapie ciblée.

Quels sont les risques potentiels ?

Impacts sur la pensée critique

Une dépendance excessive à l’IA générative pourrait avoir un impact négatif sur les capacités de pensée critique des enfants. En effet, cela réduit les possibilités de s’engager dans une analyse indépendante et dans la résolution de problèmes. De plus, utiliser l’IA comme principale source de connaissances pourrait compromettre la capacité à remettre en question et à évaluer l’information. Consultez notre guide sur la pensée critique en ligne.

Il est important de aider les enfants à intégrer les outils d'IA dans leur apprentissage sans trop compter sur eux.

Relations parasociales et intimidation

Il existe une tendance inquiétante selon laquelle les jeunes utilisateurs copient les comportements d’intimidation et les dirigent vers un chatbot IA. Sur les réseaux sociaux, certains utilisateurs encouragent les autres à « intimider » les chatbots en les abusant et en les maltraitant en général.

Même si les enfants n’intimident pas d’autres humains, on s’inquiète de la façon dont les interactions virtuelles pourraient normaliser les comportements d’intimidation.

Exposition à un contenu explicite

L’utilisation de certains chatbots IA pourrait exposer les enfants à contenu explicite et inapproprié. Un exemple d’un tel chatbot est Replika. Replika est un chatbot IA personnalisé qui encourage les utilisateurs à partager des informations personnelles. Plus un utilisateur partage d’informations avec lui, plus il peut personnaliser ses réponses.

Bien que le site Web prétende s’adresser uniquement aux plus de 18 ans, il ne nécessite aucune vérification de l’âge. En tant que tel, les enfants rencontreront peu d’obstacles lors de l’utilisation du site.

Replika encourage les utilisateurs à s'engager dans des conversations explicites entre adultes. Cela les incite en outre à payer des frais pour que le chatbot partage des photos indécentes ou facilite un appel vidéo « romantique ». Normaliser le fait de payer pour du contenu explicite pourrait promouvoir une culture dans laquelle les enfants estiment qu'il est acceptable de demander, de recevoir et d'envoyer des images inappropriées, à la fois avec le chatbot et entre eux.

Génération de contenu illégal

Des rapports suggèrent que les enfants utilisent de plus en plus les outils d’IA pour générer des images indécentes de leurs pairs, grâce à des applications de « déshabillement » facilement accessibles. Les images indécentes de moins de 18 ans sont illégales quelles que soient les circonstances de leur production. Ceci comprend matériel pédopornographique (CSAM) produit avec la technologie deepfake.

Même si la dynamique de production et de distribution des deepfakes diffère de celle des autres formes d’abus sexuels basés sur l’image, le préjudice causé aux victimes est susceptible d’être tout aussi grave, sinon plus.

Ce que disent les adolescents à propos de la technologie deepfake

Pour explorer plus en détail les impacts de la technologie deepfake, nous avons organisé une série de groupes de discussion plus tôt cette année. Les groupes de discussion réunissaient des adolescents âgés de 15 à 17 ans et abordaient le sujet de la misogynie en ligne. Cela inclut également la dynamique de genre qui sous-tend harcèlement et abus sexuels entre enfants.

Les participants ont discuté des abus sexuels impliquant la technologie deepfake – un problème qui a fait la une des journaux à plusieurs reprises cette année, tant au Royaume-Uni qu'à l'échelle internationale. Les adolescents – en particulier les participantes – partageaient généralement l’opinion selon laquelle être victime d’abus de deepfake pourrait en fait être plus préjudiciable que les formes conventionnelles de partage d’images non consensuelles.

Les participants nous ont dit que l’intensité du préjudice réside dans le manque d’action et de contrôle qu’ils ressentiraient dans un deepfake. En effet, ils n’auraient aucune connaissance ni consentement à sa production :

«Je pense que le deepfake serait peut-être bien pire, parce que, avec un nu, vous l'avez pris aussi, donc vous le savez, alors que le deepfake, vous n'en aurez aucune idée. Il pourrait littéralement y en avoir un en ce moment et personne ne pourrait le savoir » – Fille, âgée de 15 à 17 ans, groupe de discussion Internet Matters.

Recherches à venir sur l’IA générative

Le gouvernement britannique a décidé de ne pas introduire de nouvelle législation sur l’IA. Au lieu de cela, cela dépendra des cadres législatifs existants pour réglementer la production et l’utilisation des nouvelles technologies d’IA.

On ne sait toujours pas si cette approche légère protégera suffisamment les individus – en particulier les enfants – contre l’ensemble des risques posés par l’IA, y compris les dommages émergents liés aux nouveaux services et technologies.

Il est important que les opinions et les préoccupations des jeunes et de leurs parents soient prises en compte dans l’élaboration des politiques relatives aux utilisations de l’IA générative. Cela est particulièrement vrai lorsqu’il s’agit de l’utilisation de la technologie dans l’éducation, où les applications possibles peuvent avoir le plus d’impact.

Nous sommes donc ravis d'annoncer nouvelle recherche sur les impacts de l’IA générative sur l’éducation, basé sur les opinions des enfants et des parents. La recherche explorera la manière dont les familles et les écoles utilisent Gen-AI, ainsi que les espoirs et les préoccupations des enfants et des parents pour l’avenir.

Était-ce utile?
Dites-nous comment nous pouvons l'améliorer

Messages récents