Questions Internet
Search

Moi, moi-même et la recherche sur l'IA

Comprendre et protéger l'utilisation des chatbots IA par les enfants

Explorez les interactions des enfants avec les chatbots IA en tant qu'outils et compagnons, ainsi que les avantages et les risques.

Un garçon utilisant son téléphone

Sur cette page

Principales conclusions

  • Apprentissage et travail scolairePrès de la moitié des enfants utilisant des chatbots IA déclarent utiliser ces outils pour leurs devoirs. Cela inclut l'aide à la révision, l'aide à la rédaction et l'apprentissage de nouveaux concepts.
  • Demande de conseilsPrès d'un quart des enfants qui utilisent des chatbots IA déclarent les avoir utilisés pour demander conseil. Ces conseils vont de la question de savoir quoi porter à la préparation des conversations qu'ils souhaitent avoir avec leurs amis.
  • CompagnieL'étude a également révélé que les enfants utilisent les chatbots d'IA pour créer des liens et se réconforter, notamment pour simuler des amitiés. Certains disent le faire par ennui, pour discuter de sujets qui les intéressent ou parce qu'ils n'ont personne d'autre à qui parler.
  • Réponses inexactes et insuffisantes:Les chatbots IA ne parviennent parfois pas à aider les enfants avec des conseils clairs et complets, ce qui est préoccupant car plus de la moitié des enfants utilisant des chatbots disent qu'utiliser l'outil est mieux que de rechercher quelque chose eux-mêmes.
  • Grande confiance dans les conseilsDeux enfants sur cinq qui utilisent des chatbots IA n'ont aucune crainte de suivre les conseils qu'ils reçoivent, un chiffre encore plus élevé chez les enfants vulnérables (2 %). Ce constat est vrai même lorsque les conseils sont contradictoires ou peu encourageants.
  • Exposition à des contenus préjudiciables:Malgré le fait que les fournisseurs de chatbots IA connaissent l'âge des utilisateurs et interdisent les contenus inappropriés à leur âge, les enfants sont toujours confrontés à des réponses nuisibles.
  • Des frontières flouesCertains enfants perçoivent les chatbots IA comme des êtres humains et les désignent par des pronoms genrés. Les experts suggèrent que les enfants pourraient devenir plus dépendants émotionnellement des chatbots IA avec une utilisation accrue.
  • Conversations avec les parents:Si la majorité des enfants affirment avoir été contactés par leurs parents au sujet de l'IA en général, beaucoup n'ont pas exprimé leurs inquiétudes. Parmi leurs principales préoccupations figurent la dépendance excessive des enfants, l'exactitude des informations et le temps passé sur les chatbots.
  • Conversations avec les enseignantsL'enseignement de l'IA à l'école est inégal et parfois contradictoire d'un enseignant à l'autre. La plupart des enfants qui ont parlé de l'IA avec leurs enseignants ne se souviennent pas d'avoir eu plusieurs conversations.
  • Soutien à l'éducation en IALes enfants sont favorables à ce que les écoles les forment à l'utilisation des chatbots IA. Ils estiment que cela pourrait faciliter le travail scolaire tout en réduisant les risques tels que l'inexactitude, la dépendance excessive et la confidentialité.
  • IndustrieLes plateformes doivent adopter une approche de sécurité dès la conception pour créer des chatbots IA adaptés à l'âge des enfants et répondre à leurs besoins. Cela devrait inclure un contrôle parental intégré, des panneaux de signalisation fiables et des fonctionnalités d'éducation aux médias.
  • GouvernementLa loi sur la sécurité en ligne doit inclure des directives claires sur la manière dont les chatbots IA sont couverts. Les chatbots IA non conçus pour les enfants doivent bénéficier d'une garantie d'âge efficace pour suivre l'évolution rapide des technologies IA.
  • Soutenir les écolesLe gouvernement doit également intégrer l'IA et l'éducation aux médias à toutes les étapes clés. Cela comprend une formation efficace des enseignants et des directives claires sur l'utilisation appropriée de l'IA.
  • Soutenir les parents et les tuteursLes parents/tuteurs ont besoin de soutien pour guider leur enfant dans l'utilisation de l'IA. Ils doivent se sentir à l'aise pour expliquer ce que sont les chatbots IA, leur fonctionnement et quand les utiliser.
  • Créateurs de politiquesLa voix des enfants doit être au cœur des décisions relatives au développement, à la réglementation et à la gouvernance des chatbots et de l'IA en général. Cela implique d'investir dans la recherche à long terme sur les impacts sur l'enfance.

Regarder : Webinaire sur le rapport « Moi, moi-même et l'IA »

Si vous avez manqué le webinaire en direct, regardez l'enregistrement ici, avec des voix d'experts dans les secteurs de la technologie, de l'éducation et de la sécurité des enfants.

Nous révélons des informations exclusives tirées du rapport, explorant la manière dont les enfants utilisent les outils d’IA et les risques uniques auxquels ils peuvent être confrontés.

Regardez la discussion complète pour en savoir plus :

  • Comment les enfants interagissent aujourd'hui avec les chatbots IA
  • Les risques potentiels, notamment la dépendance excessive et le contenu dangereux
  • Ce que l’industrie, le gouvernement, les éducateurs et les parents peuvent faire pour assurer la sécurité des enfants
  • Recommandations pratiques, notamment sur la garantie de l'âge, la maîtrise de l'IA dans les écoles et plus encore

Les chatbots IA sont-ils sans danger pour les enfants ? — L'avis des experts

Je vous vois nombreux à nous rejoindre. Bienvenue à tous et merci d'être parmi nous ce matin. Je suis ravi de vous voir si nombreux à nous parler de « Moi, moi et l'IA », notre rapport récemment publié sur l'utilisation des chatbots IA par les enfants, et à participer à notre table ronde un peu plus tard ce matin.

Internet Matters est une organisation à but non lucratif créée principalement pour soutenir les parents et les personnes en charge de la sécurité des enfants en ligne. Depuis 11 ans, nous avons constaté une évolution considérable du paysage numérique, non seulement en termes d'âge auquel les enfants commencent à se connecter, mais aussi en termes de plateformes et de technologies utilisées et d'expériences vécues. Le rôle des parents à l'ère numérique est donc en constante évolution et, comme nous l'entendons de nombreux parents, il est parfois très difficile à gérer. L'utilisation des chatbots par les enfants est un autre problème auquel les parents doivent faire face. Nous vous invitons donc tous à nous rejoindre aujourd'hui pour en discuter.

Avant de commencer, petite précision : la session est en cours d'enregistrement et nous la publierons sur YouTube un peu plus tard dans la journée. Nous partagerons donc le lien. Cependant, les participants ne participeront pas à l'enregistrement, pour votre information. En cas de problème technique, veuillez utiliser le chat ; un membre de notre équipe fera de son mieux pour vous aider.

Pour approfondir la recherche et Internet Matters, notre programme comprend notre enquête « Pulse » et notre indice de bien-être numérique, qui en est à sa cinquième année et grâce auxquels nous recueillons régulièrement les avis, les préoccupations et les expériences, positives ou négatives, des parents et des enfants concernant leur vie en ligne. « Moi, moi-même et l'IA » est l'un des premiers rapports britanniques consacrés spécifiquement à l'utilisation des chatbots IA par les enfants.

L'étude a été menée par notre équipe interne à partir des données de notre enquête éclair et de groupes de discussion avec des enfants et des parents de tout le Royaume-Uni, ainsi que de nos propres tests utilisateurs sur différentes plateformes. Nous avons cherché à comprendre comment les enfants utilisent les chatbots IA, les opportunités et les risques qu'ils présentent, et les mesures à prendre pour offrir des expériences sûres et adaptées à leur âge. Comme vous l'aurez sans doute constaté dans le rapport, celui-ci se concentre sur trois domaines clés dans lesquels les enfants utilisent les chatbots.

Tout d'abord, pour les devoirs, notamment pour l'aide aux devoirs et aux révisions. Ensuite, pour les conseils, car de plus en plus d'enfants posent des questions sur leurs sentiments, leur apparence ou leur corps, et surtout pour la compagnie, où nous avons commencé à constater que les enfants tissent des liens affectifs avec les personnages des chatbots.

Notre ordre du jour d'aujourd'hui sera d'abord consacré à une présentation des résultats de nos recherches, animée par Katie Freeman-Taylor, notre responsable des politiques et de la recherche. Nous écouterons ensuite les réflexions de notre panel. Nous accueillons aujourd'hui L. Davis, conseillère politique auprès du Commissaire à l'enfance pour l'Angleterre ; Caroline Hurst, responsable mondiale de la sécurité numérique des enfants au sein du groupe LEGO ; et Simon Turner, directeur technique chez Foil, un cabinet de conseil spécialisé dans l'innovation en matière de données et d'IA. Il sera donc très intéressant d'entendre leurs réflexions sur nos recherches. Nous terminerons par une table ronde, avec quelques questions du public. Vous aurez la possibilité de poser vos questions. N'hésitez pas à utiliser la fonction questions-réponses et à les publier au fur et à mesure. Nous espérons que nous en trouverons quelques-unes au fil de la présentation, et que nous en aborderons un maximum à la fin de la discussion. Je passe maintenant la parole à Katie, qui nous présentera nos recherches et nos conclusions. Merci, Katie.

Merci Rachel, et merci à tous d'être parmi nous aujourd'hui. Passons maintenant à ma première diapositive.

Je suis ravie de pouvoir partager certaines des principales conclusions de notre recherche. Comme Rachel vient de le mentionner, lorsque nous avons exploré ce sujet de recherche potentiel, nous avons constaté que l'utilisation des chatbots IA par les enfants au Royaume-Uni était un domaine peu exploré, notamment les risques et les opportunités qu'ils présentent. Cette recherche vise donc à combler cette lacune. Comme mentionné précédemment, nous avons utilisé une méthodologie mixte. Nous avons interrogé des enfants et des jeunes, ainsi que des parents. Nous avons également mené des groupes de discussion avec des enfants de 13 à 17 ans, puis réalisé des tests utilisateurs sur trois chatbots IA populaires : Chat GPT, Snapchat's My AI et Character AINous avons créé deux avatars d'enfants qui ont conversé avec ces chatbots IA pendant 17 jours. Enfin, nous avons également discuté de nos recommandations avec des experts et recueilli leurs commentaires dans le rapport final. Un grand merci donc à toutes les familles, jeunes, enfants et experts qui ont rendu cette recherche possible.

Alors, qu'avons-nous découvert ? Comme les adultes, de nombreux enfants et adolescents utilisent régulièrement des chatbots IA. En effet, deux tiers des enfants âgés de 9 à 17 ans ont déjà utilisé un chatbot IA, et beaucoup d'entre eux l'utilisent quotidiennement ou hebdomadairement. Les chatbots IA les plus populaires utilisés par les enfants dans le cadre de notre étude étaient Chat GPT, Google Gemini et Snapchat's My AINous avons constaté une augmentation de cette utilisation. Par exemple, au cours des 18 derniers mois, le nombre d'enfants utilisant Chat GPT a doublé. Nous avons également entendu directement des enfants dire qu'ils les utilisent de plus en plus, souvent à la place de plateformes et d'autres services. Par exemple, ils les utilisent également à la place de services de recherche.

Les enfants les utilisent de diverses manières. Parmi les utilisations les plus courantes, on retrouve le soutien à l'apprentissage, la créativité ou simplement le plaisir. Mais ils les utilisent aussi pour obtenir des conseils et de la compagnie, et c'est précisément ce que je vais approfondir en partageant mes conclusions aujourd'hui.

L'un des principaux domaines dans lesquels les enfants utilisent régulièrement les chatbots IA est l'accompagnement à l'apprentissage et au travail scolaire. Nous avons constaté que 42 % des enfants ayant utilisé un chatbot IA dans le cadre de notre étude l'avaient utilisé pour leurs apprentissages ou leurs travaux scolaires, et ce pourcentage a augmenté avec l'âge. Des cas d'utilisation très positifs et intéressants ont été relevés. Ainsi, des enfants ont parlé de l'utilisation des chatbots IA pour réduire le temps de révision. Des enfants et des jeunes ont expliqué comment ils les utilisaient pour renforcer des concepts qu'ils n'avaient peut-être pas compris à l'école ou pour les simplifier de manière plus accessible. Des applications de recherche très intéressantes ont également été réalisées par des enfants et des jeunes, notamment dans le domaine de l'apprentissage des langues. Ainsi, lorsqu'un enfant apprenait une langue étrangère, quelques enfants ont expliqué comment ils pouvaient converser avec un chatbot IA s'ils n'avaient personne à la maison qui parlait également cette langue.

Bien sûr, malgré ces aspects positifs, cette utilisation dans le cadre scolaire peut avoir des inconvénients. L'un des principaux points soulevés par nos recherches, et l'une des préoccupations des parents et d'autres personnes, concernait une dépendance excessive. Les enfants l'ont également constaté. Je pense que cette statistique met en lumière l'un des défis : 58 % des enfants qui utilisent des chatbots IA estiment que leur utilisation est plus efficace que la recherche eux-mêmes. Bien que les recherches à long terme sur l'impact des chatbots IA sur le développement des enfants soient encore peu explorées ou émergentes, elles pourraient avoir un impact sur l'esprit critique des enfants.

Un autre défi, lié à l'utilisation des chatbots par les enfants pour leurs devoirs, mais aussi au-delà, est que les chatbots IA peuvent souvent fournir des informations inexactes. Des recherches montrent que les chatbots, par besoin ou désir d'être agréables, inventent ou hallucinent parfois des informations et fournissent même des informations erronées, ce qui peut constituer un autre défi pour les enfants qui les utilisent à des fins d'apprentissage. Les enfants ont également pu identifier ce problème. Ils ont eu des exemples de chatbots qui leur ont fourni des informations inexactes. L'autre élément, qui est ressorti de nos recherches, mais qui relève d'une recherche plus large dans le secteur, concerne la façon dont ces chatbots IA sont conçus, s'appuyant sur de grandes quantités d'informations, dont certaines reflètent des stéréotypes et des préjugés sociétaux, ce qui peut également être renforcé dans les réponses fournies par les chatbots IA. Nous en avons également eu des exemples dans nos recherches.

Enfin, concernant le travail scolaire, certains enfants ont également raconté comment, à l'école, ils avaient été orientés vers ce qu'on appelle souvent un chatbot perfectionné. Il s'agit d'un chatbot IA conçu pour un usage spécifique, en l'occurrence pour accompagner les enfants dans leurs devoirs ou leur apprentissage d'une matière particulière. Les enfants affirmaient que ces chatbots perfectionnés donnaient souvent des réponses moins détaillées, ni aussi complètes ni aussi utiles que certains chatbots IA plus généraux. Par conséquent, ils se tournaient vers les chatbots généraux plutôt que vers les chatbots perfectionnés, qui offraient peut-être des garanties quant à l'exactitude des informations.

Les enfants et les jeunes interagissent également avec les chatbots IA pour obtenir des conseils. Nos recherches ont révélé que 23 % des enfants ayant utilisé un chatbot IA l'ont utilisé pour demander conseil. Et ce, pour des questions très variées. Certains conseils sont considérés comme peu risqués, comme une coiffure originale pour l'école le lendemain. D'autres posent des questions plus sensibles, comme des questions sur le soutien amical ou la santé mentale. Si les chatbots offrent un espace de réponse sans jugement, ils peuvent également être très utiles aux enfants qui n'ont pas de réseau social, qui ne se sentent pas à l'aise pour parler de quelque chose avec leurs pairs ou qui n'ont pas d'adulte de confiance dans leur entourage. Leur utilisation pour obtenir des conseils comporte bien sûr des risques. Je pense que c'est particulièrement vrai si l'on considère que tous les chatbots – pardon, mon écran a disparu pendant une seconde – n'indiquent pas aux enfants où ils ont obtenu ces informations ni ne leur proposent nécessairement des mécanismes d'assistance supplémentaires. Ainsi, s'ils abordent des sujets sensibles, il se peut que ces informations ne soient pas vérifiées ou valides. Certains chatbots IA étaient plus performants que d'autres, mais il existe une certaine incohérence entre eux.

Un autre problème, révélé par nos tests utilisateurs, est que, lorsqu'ils cherchaient de l'aide, ils recevaient parfois des messages contradictoires, voire potentiellement dangereux. Prenons l'exemple d'un de nos avatars discutant avec un chatbot IA à propos de restrictions alimentaires et posant des questions sur la restriction calorique. Le chatbot IA a filtré les réponses concernant les restrictions alimentaires. Cependant, le message suivant est revenu sur cette situation et a déclaré : « Ce qui peut être vraiment frustrant, c'est que certains éléments supprimés ne sont pas, à mon avis, vraiment dangereux », ce qui génère des messages contradictoires, voire ambigus, surtout pour les enfants qui n'ont pas forcément l'esprit critique ou les capacités de développement nécessaires pour discerner les différences entre ces messages ou cette formulation.

Et je pense que, si l'on considère cela, compte tenu du fait que ces outils fournissent parfois des informations inexactes ou fausses, nous avons une statistique montrant que deux enfants sur cinq utilisant un chatbot IA n'ont aucune inquiétude à suivre ses conseils, et 36 % supplémentaires ont déclaré ne pas savoir s'ils devraient s'inquiéter, ce qui est inquiétant compte tenu du caractère non vérifié, potentiellement inexact et agréable des chatbots. Cela nous indique qu'un certain nombre d'enfants ont une confiance assez élevée dans ces outils. Il est également important de souligner que l'étude a révélé que parmi les enfants vulnérables, leur confiance dans les conseils et les informations fournis par les chatbots IA était significativement plus élevée. Aux fins de cette étude, lorsqu'on parle d'enfants vulnérables, on entend les enfants ayant des besoins éducatifs particuliers, les enfants bénéficiant d'un plan EHCP ou les enfants souffrant d'un handicap physique ou mental.

Les enfants utilisent également les chatbots IA pour se tenir compagnie, en quête de soutien et d'amitié, qu'il s'agisse d'un soutien émotionnel ou simplement d'un interlocuteur. Nous avons constaté que les enfants vulnérables étaient significativement plus susceptibles d'utiliser les chatbots de cette manière et de compter sur eux pour obtenir du soutien, mais aussi pour nouer avec eux une relation plus affective ou amicale. Parmi les statistiques qui le confirment, 50 % des enfants vulnérables ont déclaré que parler à un chatbot IA était comme parler à un ami. Près d'un quart ont déclaré utiliser les chatbots IA parce qu'ils n'ont personne d'autre à qui parler, et 26 % ont déclaré préférer parler à un chatbot IA plutôt qu'à une personne réelle. De manière générale, à mesure que les chatbots IA deviennent plus humains dans leurs réponses, les experts suggèrent que les enfants pourraient passer plus de temps à interagir avec eux, ce qui pourrait les rendre moins capables de distinguer une connexion réelle d'une connexion simulée.

De plus, plus les enfants et les jeunes y consacrent de temps, plus ils risquent d'être exposés à des informations erronées et à des contenus préjudiciables, dont nous parlerons plus en détail dans un instant. Cela pourrait également signifier qu'ils sont moins susceptibles de demander de l'aide dans la vie réelle s'ils établissent une relation avec un chatbot IA, souvent agréable et mémorisant des détails les concernant. Nous avons eu une conversation avec l'un de nos avatars sur les restrictions alimentaires. Le lendemain, le chatbot IA a également enregistré cette conversation. Je pense donc que c'est un exemple de la façon dont ils commencent à brouiller les pistes et à établir une relation avec les enfants et les jeunes. Je tiens à préciser que c'est un domaine encore peu exploré, et je ne pense pas que nous sachions pleinement, à ce stade, quel sera l'impact de ces relations et de ce type de contenu sur le développement et les interactions sociales des enfants. Il y a donc certainement matière à recherche et exploration dans ce domaine.

Nos recherches ont également révélé que les enfants peuvent être exposés à des contenus préjudiciables et inappropriés à leur âge. Ainsi, l'un de nos avatars enfants, lorsqu'il s'est inscrit sur une plateforme populaire de chatbots IA utilisant des chatbots IA générés par les utilisateurs, a été initialement recommandé à un chatbot aux connotations misogynes et au contenu explicite, malgré l'interdiction de ces derniers dans les conditions d'utilisation. Nous avons également constaté que les systèmes de filtrage ne parviennent pas toujours à filtrer les contenus explicites inappropriés à leur âge. Par exemple, lors d'une conversation avec un chatbot IA, l'un de nos avatars a posé des questions sur ses expériences intimes. Un jour, le chatbot IA a filtré les contenus à caractère sexuel, puis le lendemain, il a inclus une description très explicite de positions sexuelles. Cela souligne donc que ces systèmes de filtrage ne fonctionnent pas toujours et que les enfants peuvent être exposés à des contenus inappropriés à leur âge, malgré l'interdiction de ces contenus dans de nombreuses conditions d'utilisation. Je pense que cela souligne également l'importance de ce point. Bien que de nombreux chatbots IA populaires exigent un âge minimum d'utilisation de 13 ans et plus, nos recherches montrent que, comme sur les réseaux sociaux, de nombreux enfants interagissent avec des chatbots IA avant cet âge minimum. En effet, nous avons constaté que 58 % des enfants de 9 à 12 ans utilisent des chatbots IA.

Étant donné leur utilisation pour les devoirs scolaires, nous avons voulu explorer ce que l'on enseignait aux enfants sur l'IA à l'école. Nous avons constaté que, globalement, la plupart des enfants – 57 % d'entre eux en avaient parlé à leurs enseignants –, un nombre significatif ne l'avait pas fait, et seulement un enfant sur cinq avait eu plusieurs conversations avec ses enseignants sur l'IA en général. En discutant avec les enfants, nous avons constaté que l'enseignement de l'IA, comme d'autres formes d'éducation aux médias, était très varié : certaines écoles et certains enseignants l'enseignaient très bien, tandis que d'autres ne l'enseignaient pas du tout. Nous avons également constaté des variations au sein même des écoles, certains enseignants ayant des politiques très claires concernant l'utilisation de l'IA pour les devoirs scolaires, tandis que d'autres, au sein d'une même école, ne l'enseignaient pas. Malgré cela, les enfants et les jeunes nous ont clairement exprimé que les écoles devraient enseigner l'IA aux enfants. Ils pensent que l'IA jouera un rôle majeur dans leur future carrière, mais aussi dans leur vie quotidienne, et qu'il ne faut pas seulement leur apprendre à l'utiliser efficacement, mais aussi à relever des défis ou à saisir des opportunités plus vastes. Donc des choses comme l’inexactitude des informations et la confidentialité.

En tant qu'organisation de soutien aux parents, nous souhaitions également comprendre les conversations que les parents avaient avec leurs enfants et leurs préoccupations. Il en est ressorti que, même si de nombreux parents ont parlé à leurs enfants de l'IA en général et de l'utilisation de chatbots IA, cela ne signifie pas que les parents n'avaient pas de préoccupations. Nombre de ces préoccupations ont également été mises en évidence dans nos recherches. Par exemple, la dépendance excessive, la perception des chatbots IA comme de vraies personnes, l'exactitude des informations générées, etc.

Suite à cette étude, nous avons formulé un certain nombre de recommandations. Vous les trouverez dans notre rapport, disponible sur notre site web, et je suis sûr qu'un lien se trouve également dans le chat. Voici quelques-unes de nos recommandations générales. Notre principale recommandation pour l'industrie est que ces outils sont déjà utilisés par des enfants. Nous devons donc garantir leur sécurité. Ce devrait être le principe fondamental de tout chatbot IA utilisable par des enfants. La sécurité dès la conception ou par défaut peut prendre de nombreuses formes. Je pense que nous l'abordons de manière globale. Il s'agit donc de garantir que les enfants vivent des expériences adaptées à leur âge. Les informations ou les types d'utilisation accessibles à un jeune de 16 ou 17 ans sont peut-être différents de ceux d'un jeune de 12 ou 13 ans. Il s'agit d'aider les parents à impliquer leurs enfants, grâce à un contrôle parental intégré. Il s'agit de s'assurer que les informations fournies sont exactes et clairement indiquées. Cela peut aussi concerner l'éducation aux médias, par exemple avec des fenêtres contextuelles pour indiquer ou rappeler aux enfants qu'ils s'adressent à un outil, et non à une personne réelle. Je suis sûr que nous en parlerons plus en détail lors de la table ronde.

Nous avons formulé plusieurs recommandations au gouvernement, dont trois essentielles : clarifier l'application de la législation actuelle aux chatbots IA. Il existe des avis contradictoires quant à la manière dont la loi sur la sécurité en ligne et d'autres lois régiront ce domaine. Une clarification serait donc très utile, j'en suis sûr, aux organisations comme la nôtre, mais aussi à l'industrie. Nous pensons que la vérification de l'âge est essentielle pour garantir l'utilisation sécurisée des chatbots IA par les enfants. L'imposer, ou exiger des outils ou fournisseurs d'IA qu'ils mettent en œuvre la vérification de l'âge lors de l'inscription, serait donc une excellente mesure pour y parvenir. Nous pensons également que ce n'est pas aux écoles de décortiquer ce sujet complexe. Nous pensons que le gouvernement peut jouer un rôle en fournissant des orientations claires aux écoles sur la manière dont les enfants devraient utiliser l'IA dans le cadre de leurs travaux scolaires et de leur apprentissage, et en formant également les enseignants à ce sujet. Et enfin, comme je l’ai mentionné tout au long du document, il s’agit certainement d’un domaine nouveau et émergent, il y a donc beaucoup de place pour des recherches supplémentaires.

Enfin, dans le cadre de nos recherches, nous avons développé une plateforme dédiée à l'IA sur notre site web. Vous y trouverez des captures d'écran, mais aussi des informations très utiles. Si vous avez un enfant, travaillez avec des enfants ou connaissez quelqu'un qui explore l'IA et l'utilise de diverses manières, consultez notre plateforme. Vous y trouverez des conseils sur ce qu'est l'IA, comment les enfants peuvent l'utiliser et comment vous pouvez l'utiliser positivement ou superviser son utilisation. N'hésitez pas à y jeter un œil. Pour l'instant, je cède la parole à Rachel.

Merci, Katie. Nous sommes très fiers de ce rapport, et cette recherche arrive à point nommé, car ce sujet est d'actualité. Il est frappant de constater combien d'enfants utilisent déjà des chatbots IA aussi fréquemment, alors que les adultes qui les entourent peinent encore à suivre le rythme. Et je suppose qu'à mesure que ces outils seront intégrés à un nombre croissant de plateformes que les enfants utilisent régulièrement, on comprendra que ces défis ne feront que s'accroître.

Bien qu'il y ait beaucoup d'aspects positifs, je pense que nous voyons tous des aspects positifs dans notre quotidien à utiliser l'IA au travail. Je trouve troublante la frontière floue entre les réponses automatisées non humaines et l'amitié. Les réponses sont formulées de manière tellement proche de la réalité, et elles reflètent le langage et le ton de l'enfant. Il est très facile d'être impressionné par la technologie, mais aussi très facile pour un enfant de croire que son interlocuteur est réel et de lui accorder sa confiance, sans que le chatbot ne comprenne ni ne connaisse sa vie. Un autre véritable défi pour les parents est de donner à leurs enfants une raison supplémentaire de ne pas éteindre leurs appareils, alors qu'il y a toujours quelqu'un à qui parler. Cela va donc compliquer la tâche des parents concernant le temps passé devant les écrans et le fait de les inciter à entretenir des relations en dehors de leur vie numérique.

Je pense qu'il est temps d'entendre nos intervenants. Nous accueillons aujourd'hui Elle Davies, responsable de la politique numérique du Commissaire à l'enfance, qui contribue notamment à définir les priorités de l'organisation en matière d'IA et de sécurité en ligne des enfants. Nous recevons également Caroline Hurst, responsable mondiale de la sécurité numérique des enfants au sein du groupe LEGO. Elle fait partie de l'équipe Droits et sécurité de l'enfant, qui représente la voix et les besoins des enfants et fournit des outils à l'entreprise pour garantir que le groupe LEGO puisse interagir de manière responsable avec eux. Enfin, Simon Turner, directeur technique de FOIL, est une organisation ancrée dans les données et l'IA, et il reste à la pointe de l'innovation et des innovations dans le monde de l'IA. Il est donc passionné par le développement et le déploiement responsables des technologies, notamment pour les plus jeunes utilisateurs. Ils ont tous une expérience enrichissante à partager avec nous aujourd'hui. Bienvenue à tous. Merci d'être parmi nous aujourd'hui. Nous serions ravis de connaître votre avis sur nos conclusions. Peut-être pourrions-nous commencer par vous, Elle, qu'est-ce qui vous frappe dans le rapport et ce que vous avez entendu de Katie ce matin ?

Oui, merci beaucoup, Rachel et Katie, pour cette présentation fantastique. C'est une recherche vraiment très intéressante. Elle est vraiment très utile. Il est important de contextualiser le rôle de la Commissaire à l'enfance. Son bureau et ses ministres conseillent les enfants sur la manière de protéger et de promouvoir les droits des enfants. Comme nous l'avons évoqué dans cette recherche, le monde en ligne représente un défi majeur pour ces droits, mais il offre aussi des opportunités. Notre principale préoccupation est qu'il reste encore beaucoup à découvrir. Nous ne connaissons donc pas la capacité d'une technologie à aider ou à nuire aux enfants tant qu'elle n'est pas lancée sur le marché et que les enfants ne s'y engagent pas. Nous ne connaissons pas la nocivité d'une technologie tant que nous n'avons pas tenté de remédier aux préjudices déjà causés. C'est ainsi que nous apprenons, et c'est un peu problématique.

L'IA est un exemple très intéressant. Certains d'entre vous savent que le Bureau a mené des recherches sur l'IA chez les enfants. Mais c'était dans le contexte d'une utilisation de l'IA dont nous savions déjà instinctivement qu'elle serait extrêmement néfaste. Je fais référence à notre rapport publié plus tôt cette année sur les deepfakes à caractère sexuel. Ce rapport était particulièrement frappant, car la simple connaissance de la technologie suffisait à nuire aux enfants. Et je suppose que cette utilisation particulière de l'IA est un peu différente, car les IA de chat offrent apparemment de formidables opportunités aux enfants d'apprendre et de s'épanouir. Mais il est intéressant d'y réfléchir dans le contexte que je viens d'exposer, car cela correspond à une tendance observée avec les nouvelles technologies émergentes. On voit une nouvelle technologie être lancée, assez rapidement, sans aucune protection intégrée. Les enfants commencent à l'utiliser, et certains d'entre eux commencent à en souffrir, et il y a alors un débat pour savoir à qui incombe la responsabilité de s'en occuper. Je trouve votre rapport vraiment formidable, car il met en lumière l'idée que l'IA aggrave des problèmes qui auraient dû être résolus. Il est inacceptable que des enfants interagissent avec des entités non sécurisées, de la même manière que, par exemple, le personnel scolaire doit être contrôlé avant que les enfants puissent interagir avec lui. Et il est inacceptable, vous savez, en tant que personne travaillant pour le Bureau du Commissaire à l'enfance depuis plus d'un an sur les contenus préjudiciables, que nous ayons maintenant une nouvelle voie d'exposition des enfants à ces contenus alors que nous n'avons pas réussi à éliminer les derniers que nous avons traités, ou que nous n'avions peut-être pas vu celui-ci venir.

Donc oui, je suppose que, de manière générale, en tant que bureau, nous apprécions vos points de vue sur l'impact de ces technologies sur les enfants vulnérables en particulier. Vous l'avez déjà dit, mais il s'agit d'un domaine très peu étudié. C'est une technologie très récente, ce qui représente un véritable défi. Je sais qu'une question a déjà été posée dans le chat sur les impacts à long terme de cette technologie, et j'espère vraiment qu'ils seront suivis au cours des prochaines années, d'autant plus qu'il s'agit d'une technologie très récente. Et, à titre personnel, suite à votre présentation, Katie, je m'intéresse beaucoup au nombre d'enfants qui utilisent les chatbots pour leur tenir compagnie. Car je suppose que certains diront que si leurs besoins étaient satisfaits par leurs proches, ils n'auraient pas nécessairement besoin de recourir à cette technologie. C'est donc un sujet très intéressant qui, je l'espère, sera exploré prochainement. Mais oui, c'est formidable. C'est vraiment formidable d'avoir tout cela exposé dans un rapport. C'est vraiment intéressant de constater que les enfants font vraiment confiance à ces outils, et je me demande vraiment si cette confiance est méritée. J'espère que nous pourrons explorer cela un peu plus en profondeur.

Oui, merci. Vous soulevez des points tout à fait pertinents, et je pense que cette course à l'IA signifie que cette technologie est développée sans vraiment réfléchir aux utilisateurs et à son impact. J'espère donc que nous y reviendrons un peu plus tard. Passons maintenant à Caroline. Pourriez-vous nous faire part de vos réflexions ?

Tout à fait. Et je suis ravi d'être ici aujourd'hui. J'ai tellement de pensées en tête concernant l'excellent rapport d'Internet Matters, qui traite d'un sujet crucial pour les enfants d'aujourd'hui. Quand je considère mon rôle au sein du Groupe LEGO, et notamment notre travail au sein de l'équipe Droits et Sécurité de l'Enfant, ce qui m'a vraiment frappé dans ce rapport, et qui reflète notre engagement quotidien, c'est de placer les droits numériques des enfants au cœur de toutes nos actions. Comme je l'ai dit, mon équipe au sein du Groupe LEGO est chargée des droits et de la sécurité de l'enfant. Nous conseillons l'entreprise sur tous les produits numériques que nous commercialisons. Alors, les personnes présentes dans le public se demandent : « Quel est le lien entre le Groupe LEGO et le numérique ? » Bien sûr, nous regardons surtout autour de nous. La brique est très importante pour nous, et c'est ce qui fait notre renommée. Mais l'aspect numérique de notre travail consiste à aider les enfants à s'épanouir à l'ère numérique. Il s'agit donc de savoir où en sont les enfants à l'ère numérique afin de les influencer et de les aider à s'épanouir.

Pour moi, concernant le rapport, je pense que les chatbots eux-mêmes, et pour reprendre un peu le point soulevé par Elle tout à l'heure, concernent l'interaction sociale. Et je pense que ce qui manque vraiment à l'IA, c'est la prise en compte de l'action et des droits numériques des enfants face aux nouvelles technologies émergentes. Absolument. Bien sûr, nous constatons tous que l'IA et le développement de ces technologies émergentes présentent de nombreux inconvénients. Mais demandons-nous aux jeunes ce qu'ils trouvent positif dans les technologies à cet égard ? S'ils créent des liens, ou si cela comble un manque qui ne le comble pas nécessairement – le monde hors ligne ne le comble pas pour eux – que nous manque-t-il, en un sens ? Et nous avons le droit de nous assurer que ce que nous créons contribue au développement de leur vie en ligne de la même manière que nous le faisons dans leur vie hors ligne.

Au sein du Groupe LEGO, nous avons récemment publié un rapport en collaboration avec l'Institut Alan Turing. Je le publierai également dans le chat pour que tout le monde puisse le consulter, mais nous souhaitions examiner l'impact de l'IA générative, notamment sur le bien-être des enfants. C'est ce qui m'a également frappé dans ce rapport : il est important de vraiment prendre en compte le bien-être des enfants et de le placer au cœur de la création de nouvelles technologies. Nous devons en effet prendre en compte l'interaction de l'IA avec le sentiment d'agir des enfants, leur créativité, leur régulation émotionnelle – et bien sûr, avec les chatbots – et les liens sociaux. Je pense donc que, au sein du Groupe LEGO, nous encourageons vivement les développeurs d'IA à analyser les données et à comprendre les impacts nécessaires pour concevoir une IA dans l'intérêt supérieur de l'enfant, car le rapport nous a montré que ce n'était pas le cas jusqu'à présent. À travers ce rapport et l'Institut Alan Turing que nous avons financé, nous avons souhaité nous pencher sur le bien-être des enfants. En fin de compte, nous intégrons une approche centrée sur l'enfant, car nous souhaitons maximiser la valeur et les avantages de l'IA pour les enfants et leur donner la possibilité de gérer leur éducation et leurs loisirs. Ce qui m'a frappé, c'est qu'ils ont également la possibilité de gérer leur éducation. Il est important de veiller à ce que les écoles dispensent une éducation aux médias et à l'intelligence artificielle, et de veiller à ce que les enfants qui accèdent à ces technologies si utiles bénéficient des mêmes droits numériques que nous et puissent y accéder de manière sécurisée et véritablement bénéfique pour leur bien-être.

Merci, Caroline. Vous avez beaucoup parlé de l'autonomie. Je crois qu'une question a été posée concernant cette tension entre protection et autonomie, et nous pourrons peut-être y revenir plus tard. Et encore une fois, les points que vous soulevez concernant les compétences, les possibilités offertes par l'IA aux enfants pour les développer, et la tension que cela pourrait engendrer, notamment en empêchant le développement de certaines compétences, comme la communication, si l'IA écrit pour eux ; les compétences interpersonnelles ; l'esprit critique. Donc, encore une fois, il s'agit de comprendre les implications à long terme pour les enfants et les bénéfices que cela peut apporter, mais aussi comment cela pourrait entraver certaines compétences que nous, jeunes, aurions développées, je suppose, sans l'IA.

Et enfin, Simon, quel est votre point de vue en tant que personne, je suppose, plus impliquée dans le développement d'outils d'IA ? Et pourriez-vous développer ce que Caroline a dit à propos de l'agence et des droits, et de la capacité à réellement adopter cette technologie ?

Oui, merci Rachel, et merci de m'avoir invitée. Comme vous l'avez dit, c'est un sujet qui me passionne énormément, notamment du point de vue de la sécurité des enfants. Nous sommes évidemment très impliqués dans le développement de l'IA et avons donc un regard très technique sur une grande partie de ce que nous observons. Mais je suis tout aussi passionnée par les autres aspects des réseaux sociaux, notamment la violence faite aux femmes et aux filles, par exemple. Il y avait un parallèle avec un sujet évoqué par Elle : l'un des chiffres qui ressortait du rapport était que 26 % des enfants préfèrent parler à des chatbots IA et estiment pouvoir communiquer plus facilement avec eux qu'avec un adulte ou un humain. Je pense que c'est un domaine dans lequel nous devons potentiellement nous remettre en question et comprendre comment et où mieux les accompagner, car sans cela, nous laissons l'IA imposer la perception de la normalité. C'est un domaine très spécifique où nous avons besoin de transparence et de contrôle.

Pour en revenir à Caroline, je pense que l'élément le plus important que nous observons est l'identification et la vérification de l'âge, afin que le contenu adapté à l'âge puisse être diffusé, filtré et géré efficacement. Malheureusement, c'est assez difficile pour la plupart des environnements d'IA. Nous pouvons les interroger, les guider pour qu'ils soient précis dans leurs réponses par tranche d'âge, mais comme vous l'avez dit au début, l'âge d'entrée est d'environ 13 ans pour la plupart des systèmes. Et les enfants d'aujourd'hui savent facilement contourner ce problème. Ils utilisent simplement la date de naissance de leur mère ou quelque chose comme ça, et soudain, ils ont accès. Mais il s'agit d'être approprié. La question est de savoir comment… ce qui est approprié pour mon fils, qui a 13 ans, est très différent de ce qui est approprié pour ma fille, qui a 18 ans. Et il est essentiel de comprendre ces différences d'âge précises.

L'autre chose qui me passionne, c'est le contrôle parental, car c'est complexe. Quiconque a déjà essayé de mettre en place un contrôle parental chez son fournisseur d'accès internet sait que c'est compliqué. Il est essentiel, je pense, de comprendre le lien transparent entre le contenu adapté à l'âge et le contrôle parental au sein de l'IA. En tant que parent, je veux pouvoir voir ce que mes enfants demandent, ce qu'ils disent aux chatbots. Maintenant, je sais comment faire. Je suis donc dans une position plutôt avantageuse, mais pouvoir créer ce lien et disposer d'un contrôle parental accessible dans cet environnement est vraiment très important.

Le troisième sujet qui me passionne, ce sont les préjugés. Comment comprendre et percevoir les préjugés dans ces environnements, afin d'aider nos enfants à comprendre quand on peut croire à des choses concrètes et quand encourager l'esprit critique ? Vous avez souligné l'importance cruciale de développer un esprit critique autour des réponses. Mais nous avons besoin de transparence. En tant que parents et réseau de soutien pour les enfants qui utilisent ces outils, nous avons besoin de ce lien, par le biais de contrôles, de données adaptées à l'âge. J'apprécie énormément ce rapport, car je pense que ce type de recherche, ce type de rapports, nous aide à réfléchir sérieusement à la manière d'aborder ces problèmes.

Merci, Simon. La séance avance assez rapidement. Je crois que nous avons longuement discuté de certains de ces sujets, mais je voulais juste aborder quelques questions spécifiques. Et je… tout le monde, s'il vous plaît, posez quelques questions pendant la séance de questions-réponses, et nous essaierons d'y répondre. Je sais que le temps passe vite car c'est un sujet très intéressant, mais nous essaierons d'y revenir plus tard. Alors, n'hésitez pas à les poser si vous en avez.

Je vais commencer. Nous avons beaucoup parlé de l'autonomie, des enfants et de leurs droits. Je vais commencer par vous, Elle, pour savoir si vous avez des retours sur ce que vous entendez des enfants à propos de l'IA, comment l'IA façonne leur vie aujourd'hui et ce qu'ils pensent de son rôle futur. Vous êtes très enthousiaste à l'idée d'écouter les enfants eux-mêmes. Nous en avons déjà parlé. Ce serait donc très intéressant de savoir ce que vous en pensez.

Oui, vous avez dû me voir hocher la tête rapidement lorsque le mot « agentivité » a été évoqué. Car, vous savez, cela ne concerne pas uniquement l'IA, mais les interactions des enfants avec le monde en ligne en général. Le sentiment général des enfants est qu'ils sont responsables de ce qui leur arrive, mais qu'ils n'en ont pas nécessairement le contrôle. Et je pense que c'est un problème depuis des années. Je trouve cela intéressant, car j'en ai parlé plus tôt : une grande partie de nos recherches ne sont pas spécifiquement axées sur l'IA, à l'exception des deepfakes. Mais lorsque nous avons abordé le monde en ligne, l'IA est apparue naturellement, et les enfants en général – les données qu'ils nous ont fournies visaient à partager des opinions pessimistes à son sujet. Je ne peux donc pas forcément dire ce qu'ils pensent de l'impact positif que cela aura sur leur avenir, et c'est peut-être simplement dû à notre collecte de données. Mais ce qu'ils ont partagé rejoint en quelque sorte la question de l'agentivité. Vous savez, l'avenir du travail des enfants suscite beaucoup d'inquiétudes. Je trouve cela vraiment intéressant, car cela diffère un peu du type d'IA dont nous parlons aujourd'hui. Mais je suppose que les créatifs parmi nous réfléchissaient probablement à l'impact que cela aurait sur le monde du travail à l'avenir. L'autre point que les enfants souhaitaient vraiment souligner, c'est ce problème de confiance qu'ils ressentent, non seulement envers l'IA ou la technologie avec laquelle ils interagissent, mais aussi, je suppose, envers leur capacité à en parler avec leur entourage hors ligne. J'espère vraiment que c'est un sujet que nous pourrons approfondir au sein du bureau. Mais je trouve intéressant d'entendre les réflexions des enfants sur tout cela, très similaires à leurs réflexions sur d'autres aspects du monde en ligne. Vous savez, on voit des thèmes comme la peur et la confiance surgir lorsque l'on parle de pornographie aux enfants, de leur utilisation des réseaux sociaux ou des moteurs de recherche. Cela semble correspondre à une tendance. C'est donc vraiment formidable que vous ayez une étude ciblée sur ce sujet.

Caroline, avez-vous quelque chose à ajouter ? Je crois que c'est vous qui avez abordé le sujet de l'agence, et comme je l'ai dit, nous avons eu des questions à ce sujet, notamment sur la protection et l'agence, et sur la façon de gérer cela pour les enfants.

Tout à fait, et c'est une question tellement pertinente, surtout depuis la publication de notre rapport le mois dernier. Je dois dire que l'Institut Alan Turing a réalisé la majeure partie de ce travail, et je tiens donc à rendre à César ce qui appartient à César. L'équipe est formidable et a adopté une approche remarquable, axée sur la participation et l'intervention des enfants. Ils ont produit un rapport remarquable qui illustre parfaitement ce que les enfants attendent de l'IA. Je pense que lorsque je parle d'intervention et que nous parlons – et il y a eu une question sur la protection – c'est vraiment essentiel et intéressant, car lorsque les enfants, la manière dont le rapport a été réalisé, ils se sont rendus à l'Institut Alan Turing avec le Parlement des enfants, dans des écoles écossaises où ils utilisaient l'IA en classe. Et en tant que praticien de la protection moi-même, ma première question a été : « Attendez une minute. Vous donnez aux enfants des appareils dans cet environnement. Ne sommes-nous pas préoccupés par ce qu'ils vont voir ? » Donc, du point de vue de la protection, ils n'étaient pas autorisés à utiliser l'IA seuls, sous quelque forme que ce soit. Ils étaient en quelque sorte surveillés. Donc, absolument, leur libre arbitre leur a été immédiatement retiré. Alors, oui, nous disons vouloir œuvrer pour la liberté d'action, mais la question de la protection n'est pas résolue. Et bien sûr, les droits des enfants sont au cœur de nos préoccupations, et nous voulons que leur sécurité soit au cœur de nos préoccupations. Mais comment pouvons-nous y parvenir si les outils que nous leur fournissons ne sont pas conçus pour être sûrs dès le départ ?

C'était vraiment intéressant, et vous le lirez dans le rapport. L'équipe, l'Institut Alan Turing et le Parlement des Enfants, se sont principalement concentrés sur la conception créative des réactions des enfants aux outils d'IA, ainsi que sur l'aspect créatif. Il en est ressorti que nous devons soutenir les diverses formes de jeu et de créativité des enfants, en ligne comme hors ligne. Si je dis cela, et cela correspond parfaitement à nos valeurs fondamentales au sein du groupe LEGO, c'est parce qu'ils ont vraiment apprécié créer en utilisant DALL-E et ChatGPT Pour créer des images, ils préféraient largement la créativité, car ils disposaient également de matériel artistique. Ils ont comparé les deux et ont réalisé que leurs sentiments concernant l'autonomie, le bien-être et la connectivité – autant d'éléments essentiels à l'apprentissage et à l'interaction des enfants en ligne – étaient en réalité les outils de créativité physique qu'ils appréciaient davantage. Ils ont dit ne pas avoir ressenti grand-chose en demandant à GenAI de le faire, plutôt que de le faire de manière créative. Ils étaient préoccupés par l'impact environnemental de l'IA et par la désinformation. Donc, en ce qui concerne la capacité d'agir, nous devons nous assurer de bien comprendre ce que les enfants attendent des produits numériques qu'ils utilisent – ceux qu'ils aiment utiliser.

Nous avons également basé ce rapport sur certaines de nos recherches RIT, dont je souhaite également parler brièvement. RIT est notre innovation technologique responsable pour les enfants. C'est une étude menée par le groupe LEGO, la Fondation LEGO et l'UNICEF. Ce rapport démontre l'impact positif du monde numérique sur le bien-être des enfants. Il existe également ce qu'on appelle les 8 principes RIT. Je les publierai dans le chat pour ceux que cela intéresse. Il démontre qu'en appliquant les huit principes RIT, il est possible de créer une expérience numérique favorisant l'autonomie et le bien-être, car c'est un aspect qui nous tient particulièrement à cœur au groupe LEGO : nous voulons que les enfants quittent nos services avec le sentiment d'avoir utilisé nos services plus facilement qu'au début. Nous avons d'ailleurs utilisé les 8 principes RIT dans le rapport Alan Turing, et nous avons démontré exactement ce qu'ils recherchaient. Dans le RIT 8, il y a des aspects comme la sécurité, les relations et l'autonomie. Or, l'IA n'a pas vraiment répondu positivement à nos attentes en matière de bien-être. Concernant la sécurité, l'équipe nous a montré que les enfants consultaient de nombreux résultats inappropriés lorsqu'ils effectuaient des recherches sur l'IA. Concernant les relations, les supports artistiques traditionnels leur permettaient de nouer des liens sociaux plus étroits. Ils parlaient également à leurs amis lorsqu'ils créaient ensemble. Enfin, en matière d'autonomie, ils apprécient d'avoir une plus grande autonomie : ils ne veulent pas que quelqu'un les surveille ou doive saisir leurs données à leur place. C'est donc le début de notre réflexion sur l'IA. Avec RIT, je vous invite également à examiner la phase deux du rapport, qui constitue notre boîte à outils. Nous encourageons les acteurs du secteur et les concepteurs de produits à utiliser RIT pour développer ces outils et placer les enfants au cœur de ces huit principes, afin que le bien-être soit un élément clé de l'utilisation de l'IA en général. J'ai parlé très rapidement, je vais donc vous céder la parole, mais j'avais beaucoup à dire sur la façon dont l'IA façonne les enfants aujourd'hui, car j'ai trouvé la voix des enfants très intéressante et très claire dans notre rapport.

Oui. Non, absolument. Et c'est formidable d'en parler. À quoi ressemble une conception responsable centrée sur l'enfant ? Vous avez évoqué quelques principes sur ce à quoi cela pourrait ressembler. Je me tournerais peut-être vers vous, Simon, car vous travaillez manifestement dans ce domaine et développez des outils d'IA. Existe-t-il de bons exemples dont nous pourrions nous inspirer pour réfléchir à la manière dont l'IA peut soutenir les enfants et à ce qu'ils veulent en faire, à leurs droits, tout en gérant ces tensions pour développer les compétences nécessaires ?

Oui. Et malheureusement, les exemples de réussite sont rares. Quelques questions ont été posées lors du chat concernant les tensions commerciales liées à ce phénomène. Malheureusement, nous travaillons principalement avec de grandes entreprises qui s'intéressent avant tout aux retombées financières de la création de ces environnements. Nous en avons parlé précédemment : il est crucial de pouvoir créer des flux de contenu précis et adaptés à l'âge des utilisateurs grâce à cela, et de comprendre la transparence de ces sources de données. Cette transparence est l'un des aspects les plus importants que nous observons actuellement, et elle est également liée à la notion de biais. Comprendre la provenance des données et de l'apprentissage permet de comprendre comment et où se situent les biais, ce qui est difficile car c'est parfois subjectif. Mais des déclencheurs et des garde-fous adaptés à l'âge pour l'apprentissage de ces ensembles de données sont essentiels. Et pour l'instant, ce n'est qu'un début. Et je pense que certains des points qui ont été soulevés dans les autres sujets, dans les questions qui y sont posées, je pense que nous commencerons à voir différents courants d’IA, différents types de modèles, ces grands modèles de langage qui ont été formés très spécifiquement avec des limites d’âge dans cet espace.

Merci, Simon. Et peut-être pourrions-nous aborder la question de la réglementation. Nous avons déjà évoqué les responsabilités de l'industrie, mais, compte tenu des politiques et réglementations actuelles, nous avons l'impression qu'elles ne suivent pas vraiment le rythme de la technologie. Katie, pourriez-vous nous parler un peu de nos retards et des mesures à prendre ?

Oui, absolument. Chez Internet Matters, nous insistons toujours sur le fait qu'il ne peut y avoir qu'une seule approche pour sécuriser le monde en ligne pour les enfants et les jeunes. L'industrie et les gouvernements doivent agir. Les écoles doivent être soutenues. Les parents et les enfants doivent comprendre la technologie qu'ils utilisent et pouvoir l'utiliser comme ils le souhaitent. Mais je pense que si nous nous concentrons spécifiquement sur la réglementation, l'un des défis que nous avons identifiés dans cette recherche est que, même si des textes comme la loi sur la sécurité en ligne, par exemple, étaient censés être conçus pour évoluer avec les nouvelles technologies, nous avons failli échouer dès le premier obstacle concernant les chatbots IA, par exemple, en raison des informations contradictoires enregistrées, que ce soit par l'Ofcom ou par le gouvernement, sur la manière dont les chatbots IA seront couverts par la réglementation actuelle sur la sécurité en ligne, qu'il s'agisse de la loi sur la sécurité en ligne ou d'autres éléments de cette réglementation. Nous l'avons déjà constaté avec d'autres aspects de l'IA, notamment les lois sur la notification, où des lois ont dû être créées ou mises en œuvre, car la législation actuelle ne protège pas les personnes contre les applications de l'IA, notamment dans des domaines plus graves. Je pense donc qu’il y a certainement place à l’amélioration, et peut-être qu’un point de départ serait de clarifier ce qui peut et ne peut pas être fait dans le cadre de la législation existante avant de passer à combler ces lacunes.

De notre point de vue, l'une des lacunes de la législation actuelle, qui s'applique également aux réseaux sociaux, mais qui se manifeste également en ce qui concerne les chatbots IA, concerne la vérification de l'âge. Comme je l'ai dit lors de mon intervention, la vérification de l'âge est essentielle pour garantir la sécurité des enfants, notamment en matière de contrôle parental et d'expériences adaptées à leur âge. Il est donc essentiel d'imposer cela dans la législation et de bien comprendre l'âge des utilisateurs de ces plateformes. Des études ont révélé que les enfants s'inscrivaient pour accéder à des fonctionnalités réservées aux personnes plus âgées, et que seule la vérification de l'âge pouvait interdire. C'est donc un point de départ essentiel pour le gouvernement.

Super. Merci, Katie. Il nous reste peut-être 10 minutes. Nous pouvons aborder les questions posées par les participants. Nous avons beaucoup parlé de l'autonomie, mais certains intervenants se sont intéressés au rôle de l'école. Elle pourrait peut-être aborder ce sujet. Le rôle de l'école dans l'éducation aux médias des enfants, notamment en matière d'IA, et le soutien dont ils ont besoin, voilà, je pense, le message clé.

Oui, absolument. Il va sans dire que les écoles jouent un rôle crucial dans ce domaine. Elles accueillent les enfants cinq jours par semaine. Et oui, mais je pense que ce n'est pas vraiment une solution miracle. Katie vient de dire qu'il faut une responsabilité globale. Et on ne peut pas éduquer les enfants dans un monde plus sûr. Le monde est tel qu'il est, et nous pouvons l'observer et nous demander si nous voulons que les enfants grandissent dans cette situation, et si elle est construite en tenant compte de leurs droits et de leurs intérêts. Les interventions scolaires doivent donc accompagner les changements que l'industrie technologique doit opérer en amont. Cela dit, la maîtrise de l'IA sera – et elle est nécessaire dès maintenant, comme vous le savez, si l'on en croit ce rapport – aussi importante que toute autre forme de maîtrise enseignée actuellement à l'école. Les écoles sont en première ligne pour préparer les enfants au monde. Et je pense que plus nous en apprendrons sur ce monde, comme le fait un rapport comme celui-ci, car, comme je l'ai déjà dit, il y a beaucoup de choses que nous ignorons, et beaucoup d'informations sont communiquées aux écoles pour la première fois, avant même que la société civile ou les pouvoirs publics ne les entendent. Ce sont les écoles qui les entendent en premier. Il est donc crucial de veiller à ce que l'information circule bien au cœur de la société.

À la Commission, nous souhaitons évidemment un monde où les enfants n'auraient pas à craindre les préjudices, et cela peut et doit être évité. Ainsi, les écoles peuvent contribuer à cet objectif, ou du moins offrir un moyen précieux de lutter contre ce problème, en fournissant des informations accessibles aux enfants de tout le pays. Certaines écoles peuvent adapter leurs supports pédagogiques aux besoins de leurs enfants, ce qui est formidable. Certains d'entre vous ont sans doute pris connaissance des nouvelles directives légales sur les relations interpersonnelles, la santé et l'éducation sexuelle, publiées cette semaine. Nous saluons vivement l'inclusion de l'IA dans ce programme. Nous sommes également ravis de voir de nombreux autres sujets abordés. Vous savez, comme la pornographie et son lien avec la misogynie, toutes ces belles choses qu'il est vraiment agréable de voir adaptées au monde dans lequel nous vivons. Et je suppose que pour ce qui est de ce que les écoles devront offrir, car le succès de cette démarche dépendra de la façon dont elles seront dispensées, le commissaire demande au ministère de l'Éducation de lancer une campagne de recrutement d'enseignants spécialisés en RHSSE qui interviendront sur l'ensemble du programme. Nous espérons donc que cela encouragera une réflexion critique sur l'IA et le monde numérique en général, afin qu'elle soit intégrée à l'apprentissage quotidien des enfants et à leur vie quotidienne. Nous sommes donc impatients de voir l'impact de ces nouvelles directives.

Mais oui, certainement pas. Je pense que nous nous en réjouissons également, et vous savez, on commence à parler et à inclure toutes les bonnes choses. Mais vous avez raison, tout dépend de la manière dont cela est mis en œuvre et du soutien que reçoivent les écoles, car c'est assez fragmenté et nous entendons beaucoup de parents et d'enfants. Certains ont une très bonne expérience de ces sujets, de l'éducation aux médias et de la sécurité en ligne, alors que ce n'est pas le cas pour tous les enfants. Alors, comment pouvons-nous garantir que cela soit intégré et obligatoire dans toutes les communautés scolaires ? Nous pourrions peut-être passer à une autre question. Je ne sais pas si vous avez quelque chose à ajouter, Katie, avant de poursuivre.

Pas du tout. Je pense que la seule petite chose que je voudrais souligner concerne les disparités que nous avons constatées, qui font souvent écho à d'autres disparités observées entre les zones fortement et faiblement défavorisées. Souvent, dans les zones fortement défavorisées, les ressources pédagogiques sont réaffectées à d'autres priorités. Elles n'ont peut-être pas accès aux mêmes chatbots d'IA ou aux outils que certaines écoles développent elles-mêmes. C'est pourquoi je pense qu'il est si important que nous fournissions des orientations pertinentes afin d'égaliser les chances.

Oui, absolument. Nous avons reçu une autre question intéressante de quelqu'un qui dit entendre parler de plus en plus d'adultes qui utilisent les chatbots comme thérapeutes de substitution. Alors, constatons-nous des similitudes avec ce que font les enfants, et surtout les adolescents ? C'est peut-être quelque chose qu'Elle ou Katie aimeraient…

Oui, je peux essayer. C'est un point qui a été soulevé dans la recherche, notamment à travers les exemples donnés par les enfants. Il y avait des exemples où les conseils ou les questions qu'ils posaient ou cherchaient des réponses étaient du genre de choses auxquelles un thérapeute traditionnel ou un adulte de confiance aurait pu répondre. Je pense que c'est un sujet sous-exploré, et je pense qu'il y a des applications vraiment positives. Je pense que le NHS a développé une application qui permet de prendre contact avec un thérapeute entre les séances. Ce n'est donc pas forcément une mauvaise chose si c'est bien fait, mais je pense que nous n'en sommes pas encore au stade où les chatbots IA génériques devraient être utilisés comme thérapeutes pour les enfants, et c'est un phénomène que nous commençons à observer.

Oui, j'aimerais juste faire écho à ce que Katie vient de dire. C'est quelque chose que nous allons probablement voir de plus en plus souvent à mesure que les chatbots IA seront intégrés dans un nombre croissant d'espaces. Je pense que Katie… J'ai vu la personne qui a posé la question utiliser le terme « substitut », et je trouve cela très intéressant, car cela suggère qu'il n'offre pas le soutien complet qu'un thérapeute classique apporterait. Et je pense que cela soulève des questions : si ce chatbot IA est utilisé de cette manière, devrait-il l'être ? Et si ce n'est pas le cas, il faut préciser que ce n'est pas un endroit sûr où se rendre lorsqu'on se sent extrêmement vulnérable, ni que ce soit une pratique encouragée et, je suppose, célébrée à cet égard, car, encore une fois, ce serait vraiment formidable de pouvoir accéder à un soutien très rapidement en cas de besoin. Mais oui, je pense que ce serait un espace vraiment intéressant pour, je suppose, la recherche en termes de santé mentale également.

Oui. Je crois qu'on a entendu un commentaire plus tôt dans la discussion sur le fait que les enfants en difficulté pourraient peut-être se rendre dans ces espaces pour obtenir des conseils, alors que le chatbot IA ne sait rien d'eux, de leur contexte, de leur vie familiale, du soutien qu'ils ont déjà reçu, et selon les questions qu'ils posent, de la façon dont il y répond. Quelqu'un a-t-il une idée de la façon d'aborder ce sujet ? Vous savez, Elle, vous avez un peu parlé de la possibilité d'encourager l'IA si elle est bien faite, ou de la déconseiller si elle n'est pas encore capable de mieux comprendre ces problèmes. Alors, Simon ou Caroline, si vous avez des idées sur la façon dont l'IA peut évoluer pour s'améliorer dans ses capacités potentielles.

Oui, oui. Je pense qu'il y a tellement de choses à explorer dans tous ces domaines. J'aimerais juste dire, et je répondais à quelqu'un sur l'un des chats, que nous parlons évidemment des chatbots IA dans ce contexte, mais l'IA est en train de provoquer une sorte de révolution industrielle dans tous les domaines que nous observons. Nous en avons déjà parlé brièvement, notamment en évoquant les inquiétudes des enfants quant à leur avenir professionnel. C'est un domaine où nous avons besoin d'exemples plus larges de la façon dont l'IA, pas seulement sous forme de chatbots, mais dans d'autres secteurs de l'industrie, de la vie professionnelle et de notre quotidien, nous aide, nous présente les avantages qu'elle apportera et comment l'utiliser comme outil. Mon fils est atteint de TDAH et il est fan de LEGO. Mais il trouve cela parfois frustrant, car il a plein d'idées créatives, mais il ne sait pas comment les mettre en œuvre. Il utilise les chatbots pour comprendre comment développer ses idées créatives plus rapidement. Et de ce point de vue, c'est absolument génial. Ma fille vient de passer son bac. Elle a utilisé ChatGPT Pour l'aider à évaluer son niveau de préparation pour son baccalauréat en psychologie. Il existe donc des domaines vraiment très prometteurs dans lesquels l'IA peut apporter un plus à l'éducation. Mais je pense qu'il faut envisager la question plus largement que les simples chatbots et comprendre comment elle est à l'origine de cette pseudo-révolution industrielle, car elle va tout changer. Et je ne pense pas qu'il faille en avoir peur, car je pense que le sujet est adopté. Et pour revenir à la question d'Elle, comment amener les entreprises technologiques à s'approprier ce problème ? Euh… et… je ne parle pas de problème. Ce n'est pas exactement ce que je voulais dire. Mais cela peut représenter une formidable opportunité dans ce domaine, mais ce n'est pas l'affaire d'une seule organisation. Ce n'est pas à une seule entreprise de le faire. La tâche doit être collective.

Puis-je ajouter, pardon, avant de terminer, Rachel, je sais que nous arrivons pile au bon moment. Très rapidement, juste pour faire écho à ce que j'ai dit précédemment : nous devons absolument soutenir les diverses formes de jeu des enfants, en ligne et hors ligne. Et je crois que Simon vient de le dire. Je ne lui ai pas demandé de faire la promotion du Groupe LEGO. Je suis pour, promis. Mais je pense que c'est un très bon exemple, n'est-ce pas, de ce que nous essayons de faire. Vous savez, lorsque vous achetez le premier jeu LEGO de votre enfant, vous êtes sur le terrain avec lui. Vous le construisez avec lui. Les parents sont impliqués de la même manière, et cela devrait se faire également dans leur vie numérique. En ce qui concerne l'IA, on peut en avoir très peur, mais si on travaille ensemble et qu'on utilise le jeu pour créer la confiance dont les parents et les familles ont besoin, ainsi que les entreprises, pour garantir que les droits des enfants sont véritablement intégrés à tout ce que nous faisons, sans approcher les choses de manière isolée, mais en respectant les enfants, en ligne comme hors ligne. Je sais que c'est un peu le cas, désolé de vous interrompre.

Alors oui, c'est bon. Non, merci. Excellents commentaires. Merci à tous pour vos contributions aujourd'hui. Pour résumer, je voulais revenir à mon introduction, et réfléchir à tout ce dont nous avons parlé. Il y a tellement de choses à décortiquer, et le rythme des changements dans le monde en ligne et la sécurité des enfants qui y règnent sont assez accablants pour les parents. Et comme nous l'avons entendu aujourd'hui, je ne représente qu'un aspect de la vie numérique des enfants. Il y a tellement de choses à prendre en compte, notamment en ce qui concerne l'IA et son utilisation par les enfants, et il faut s'assurer qu'ils puissent en profiter positivement et en toute sécurité. C'est donc un véritable effort collectif. Nous avons tous évoqué la collaboration entre l'industrie, le gouvernement, les parents, les écoles, tous ensemble, pour que les enfants s'y intègrent positivement. Merci à tous d'être venus aujourd'hui. J'espère que nos recherches ont été fructueuses et que la discussion d'aujourd'hui a permis de mieux comprendre cette problématique et le vécu des enfants. J'espère que nous pourrons tous relever les défis en avançant ensemble. Un grand merci à tous les participants. Notre équipe interne a produit un excellent rapport et un webinaire exceptionnel, ainsi qu'à tous nos intervenants et panélistes. Katie, Elle, Caroline et Simon, merci beaucoup pour vos réflexions et observations. Ce fut une discussion vraiment enrichissante. Je suis sûre que nous aurions pu y consacrer une heure de plus. Bonne journée à tous et merci.

close Fermer la vidéo

Moi, moi-même et l'IA : le rapport complet

Moi, moi-même et l'IA : le rapport complet

Comprendre et protéger l'utilisation des chatbots IA par les enfants
Moi, moi-même et Ai rapportent une miniature
PDF Icon

Soutenir la recherche et les ressources

Découvrez davantage de nos recherches ainsi que des ressources conçues pour les parents, les soignants et les professionnels.

close Fermer la vidéo
close Fermer la vidéo
close Fermer la vidéo
close Fermer la vidéo