Ik, mezelf en AI-onderzoek
Het begrijpen en beschermen van het gebruik van AI-chatbots door kinderen
Ontdek hoe kinderen omgaan met AI-chatbots als hulpmiddel en als gezelschap, en wat de voor- en nadelen zijn.
Op deze pagina
Belangrijkste bevindingen
- Leren en schoolwerkBijna de helft van de kinderen die AI-chatbots gebruiken, zegt dat ze de tools gebruiken voor schoolwerk. Dit omvat hulp bij het herhalen van leerstof, schrijfondersteuning en het leren van nieuwe concepten.
- Advies vragenBijna een kwart van de kinderen die AI-chatbots gebruiken, zegt dat ze die wel eens hebben gebruikt om advies te vragen. Advies varieert van vragen wat ze moeten dragen tot het oefenen van gesprekken die ze met vrienden willen voeren.
- KameraadschapUit het onderzoek bleek ook dat kinderen AI-chatbots gebruiken voor verbinding en comfort, onder meer om vriendschap te simuleren. Sommigen zeggen dat ze dit doen uit verveling, om onderwerpen te bespreken die hen interesseren of omdat ze niemand anders hebben om mee te praten.
- Onjuiste en onvoldoende antwoorden:AI-chatbots schieten soms tekort in het geven van duidelijk en uitgebreid advies aan kinderen. Dat is zorgelijk, aangezien meer dan de helft van de kinderen die chatbots gebruiken, zegt dat het beter is om de tool te gebruiken dan zelf iets op te zoeken.
- Hoog vertrouwen in advies: Twee op de vijf kinderen die AI-chatbots gebruiken, maken zich geen zorgen over het opvolgen van het advies dat ze krijgen. Dit percentage ligt zelfs hoger bij kwetsbare kinderen (2%). Dit geldt zelfs wanneer het advies tegenstrijdig of niet ondersteunend is.
- Blootstelling aan schadelijke inhoudOndanks dat AI-chatbotleveranciers de leeftijd van gebruikers kennen en leeftijdsongeschikte content verbieden, krijgen kinderen nog steeds te maken met schadelijke reacties.
- Vage grenzenSommige kinderen zien AI-chatbots als mensachtig en noemen ze genderspecifieke voornaamwoorden. Deskundigen suggereren dat kinderen emotioneel afhankelijker worden van AI-chatbots naarmate ze meer gebruikt worden.
- Gesprekken met oudersHoewel de meeste kinderen zeggen dat een ouder met hen over AI in het algemeen heeft gesproken, hebben veel ouders hun zorgen niet gedeeld. De grootste zorgen van ouders zijn onder meer dat kinderen te afhankelijk worden, dat informatie niet accuraat is en dat er te veel tijd wordt besteed aan chatbots.
- Gesprekken met leraren: Het onderwijs over AI op scholen is inconsistent en soms tegenstrijdig van leraar tot leraar. De meeste kinderen die met leraren over AI hebben gesproken, herinneren zich niet dat ze meerdere gesprekken hebben gevoerd.
- Ondersteuning voor AI-onderwijsKinderen zijn voorstander van scholen die hen leren hoe ze AI-chatbots moeten gebruiken. Ze vonden dat het schoolwerk kon ondersteunen en tegelijkertijd risico's zoals onnauwkeurigheid, overmatige afhankelijkheid en privacy kon aanpakken.
- IndustriePlatforms moeten een 'safety-by-design'-benadering hanteren om leeftijdsgeschikte AI-chatbots te creëren die inspelen op de behoeften van kinderen. Dit omvat ingebouwde ouderlijk toezicht, betrouwbare wegwijzers en mediawijsheidsfuncties.
- OverheidDe Online Safety Act moet duidelijke richtlijnen bevatten over hoe AI-chatbots worden beschermd. AI-chatbots die niet voor kinderen zijn ontwikkeld, moeten effectieve leeftijdswaarborging hebben om gelijke tred te houden met de snel evoluerende AI-technologieën.
- Scholen ondersteunen: De overheid moet AI en mediawijsheid ook in alle belangrijke fasen integreren. Dit omvat effectieve lerarenopleidingen en duidelijke richtlijnen voor het juiste gebruik van AI.
- Ondersteuning van ouders en verzorgersOuders/verzorgers hebben ondersteuning nodig bij het begeleiden van hun kind bij het gebruik van AI. Ze moeten zich zeker genoeg voelen om te praten over wat AI-chatbots zijn, hoe ze werken en wanneer ze ze moeten gebruiken.
- beleidsmakersDe stem van kinderen moet centraal staan bij beslissingen over de ontwikkeling, regulering en governance van AI-chatbots en AI in het algemeen. Dit betekent ook investeren in langetermijnonderzoek naar de impact op kinderen.
Bekijk: webinar over het rapport 'Ik, mezelf en AI'
Als u de live webinar hebt gemist, kunt u hier de opname bekijken. Hierin spreken experts uit de sectoren technologie, onderwijs en kindveiligheid.
We onthullen exclusieve inzichten uit het rapport, waarin wordt onderzocht hoe kinderen AI-hulpmiddelen gebruiken en welke unieke risico's zij daarbij kunnen lopen.
Bekijk de volledige discussie om meer te leren:
- Hoe kinderen tegenwoordig omgaan met AI-chatbots
- De potentiële risico's, waaronder overmatig vertrouwen en onveilige inhoud
- Wat de industrie, de overheid, opvoeders en ouders kunnen doen om kinderen veilig te houden
- Praktische aanbevelingen, waaronder leeftijdsgarantie, AI-geletterdheid op scholen en meer
Zijn AI-chatbots veilig voor kinderen? — Wat zeggen de experts?
Ik zie dat velen van jullie nu meedoen. Dus, welkom allemaal en bedankt voor jullie aanwezigheid vanochtend. Ik ben zo blij dat zovelen van jullie hier zijn om te luisteren naar "Me, Myself, and AI", ons onlangs gepubliceerde rapport over het gebruik van AI-chatbots door kinderen, en voor onze paneldiscussie later vanochtend.
Internet Matters is een non-profitorganisatie die voornamelijk is opgericht om ouders en verzorgers te ondersteunen bij het beschermen van kinderen online. We zijn nu 11 jaar actief en in die tijd hebben we het digitale landschap onherkenbaar zien veranderen, niet alleen wat betreft de leeftijd waarop kinderen online gaan, maar ook wat betreft de platforms en technologie die ze gebruiken en de ervaringen die ze opdoen. Dit maakt het ouderschap in een digitaal tijdperk continu in beweging, en zoals we van veel ouders voortdurend horen, is het soms echt overweldigend. Het gebruik van AI-chatbots door kinderen is slechts een van de vele problemen waar ouders mee te maken hebben, dus we nodigen jullie allemaal vandaag uit om dit onderwerp met ons te bespreken.
Nog even een kleine mededeling voordat we beginnen: de sessie wordt opgenomen en we publiceren hem later vandaag op YouTube, dus we delen de link ernaar. Deelnemers zullen echter niet deelnemen aan de opname, dit om je te laten weten. Mocht je technische problemen ondervinden, gebruik dan de chatfunctie. Een van onze teamleden zal je zo goed mogelijk proberen te helpen.
Om nog wat dieper in te gaan op onderzoek en internetzaken: ons programma omvat onze pulse-enquête en onze index voor digitaal welzijn, die nu vijf jaar bestaat. Via deze index horen we regelmatig de stemmen van ouders en kinderen over hun gedachten, zorgen en ervaringen, of die nu positief of negatief zijn, met betrekking tot hun online leven. "Me, Myself, and AI" is een van de eerste Britse rapporten die specifiek gericht is op het gebruik van AI-chatbots door kinderen.
Het onderzoek werd uitgevoerd door ons interne team, gebaseerd op onze pulse-enquêtegegevens en focusgroepen met kinderen en ouders uit het hele Verenigd Koninkrijk, samen met onze eigen gebruikerstests van een aantal verschillende platforms. We wilden begrijpen hoe kinderen AI-chatbots gebruiken, welke kansen en risico's het gebruik ervan met zich meebrengt en wat er moet gebeuren om veilige, leeftijdsgeschikte ervaringen te ondersteunen. Zoals u hopelijk in het rapport hebt gezien, richt het zich op drie belangrijke gebieden waarop kinderen chatbots gebruiken.
Ten eerste voor schoolwerk, inclusief hulp bij huiswerk en herhaling. Vervolgens voor advies, omdat steeds meer kinderen vragen stellen over hun gevoelens, uiterlijk of lichaam, en vooral voor gezelschap, waar we merkten dat kinderen emotionele banden ontwikkelden met chatbotpersonages.
Onze agenda vandaag richt zich eerst op een presentatie van onze onderzoeksresultaten, die wordt geleid door Katie Freeman-Taylor, hoofd Beleid en Onderzoek. Daarna luisteren we naar de reflecties van ons panel. Vandaag hebben we L. Davis bij ons, beleidsadviseur voor de Britse Kinderombudsman; Caroline Hurst, Global Digital Child Safety Lead bij de LEGO Group; en Simon Turner, Chief Technology Officer bij Foil, een adviesbureau dat zich richt op data- en AI-innovatie. Het zal dus erg interessant zijn om al hun gedachten en reflecties over ons onderzoek te horen. We sluiten af met een paneldiscussie, inclusief enkele vragen uit het publiek. U krijgt de mogelijkheid om uw vragen te stellen. Gebruik de Q&A-functie en stel ze daar terwijl we bezig zijn. Hopelijk pikken we er een paar op tijdens de presentatie, en aan het einde van de discussie kunnen we er zoveel mogelijk beantwoorden. Dus nu geef ik het woord aan Katie, die ons door ons onderzoek en onze bevindingen zal leiden. Bedankt, Katie.
Bedankt, Rachel, en bedankt iedereen voor jullie aanwezigheid vandaag. Ik ga nu verder met mijn eerste dia.
Ik ben erg enthousiast om enkele van de belangrijkste bevindingen uit ons onderzoek te kunnen delen. Zoals Rachel net al zei, toen we dit als mogelijk onderzoeksonderwerp onderzochten, ontdekten we dat de manier waarop kinderen in het Verenigd Koninkrijk AI-chatbots gebruiken een onderbelicht gebied is, inclusief de risico's en kansen die ze met zich meebrengen. Dit onderzoek is dus een poging om een deel van die lacune die we hebben ontdekt, op te vullen. Zoals gezegd, hebben we een gemengde methodologie gebruikt. We hebben dus kinderen en jongeren, maar ook ouders, ondervraagd. We hebben ook focusgroepen gehouden met kinderen van 13 tot 17 jaar, en vervolgens hebben we gebruikerstests uitgevoerd met drie populaire AI-chatbots: Chat GPT, Snapchat's My AIen Character AI, waar we twee kindavatars instelden die gedurende 17 dagen met deze AI-chatbots communiceerden. Tot slot spraken we ook met experts over onze aanbevelingen en kregen hun input voor het eindrapport. Dus, een grote dank aan alle gezinnen, jongeren, kinderen en experts die dit onderzoek mogelijk hebben gemaakt.
Dus, wat hebben we ontdekt? Net als volwassenen gebruiken veel kinderen en jongeren regelmatig AI-chatbots. Sterker nog, tweederde van de kinderen tussen 9 en 17 jaar heeft een AI-chatbot gebruikt, en velen van hen gebruiken ze dagelijks of wekelijks. De populairste AI-chatbots die kinderen in ons onderzoek gebruikten, waren Chat GPT. Google Geminien Snapchat's My AIEn we zagen dat dit gebruik toeneemt. Zo is het aantal kinderen dat Chat GPT gebruikt in de afgelopen 18 maanden verdubbeld. We hoorden ook rechtstreeks van kinderen dat ze Chat GPT steeds vaker gebruiken, vaak in plaats van platforms en andere diensten. Een voorbeeld hiervan is dat kinderen Chat GPT ook gebruikten ter vervanging van zoekdiensten.
Kinderen gebruiken ze op verschillende manieren. De meest voorkomende manieren die we hoorden, waren ter ondersteuning bij het leren, creativiteit of gewoon voor de lol. Maar kinderen gebruiken ze ook voor advies en gezelschap, en het zijn deze gebieden waar ik vandaag dieper op in ga wanneer ik de bevindingen deel.
Een van de belangrijkste gebieden waarop kinderen regelmatig AI-chatbots gebruiken, is ondersteuning bij leren en schoolwerk. We ontdekten dat 42% van de kinderen in ons onderzoek die een AI-chatbot hadden gebruikt, deze had gebruikt voor leren of schoolwerk, en dit percentage nam toe naarmate de kinderen ouder werden. En er waren een aantal zeer positieve en interessante use cases. Kinderen spraken bijvoorbeeld over het gebruik van AI-chatbots om de hoeveelheid tijd die ze nodig hadden om te herhalen te verminderen. Kinderen en jongeren vertelden hoe ze ze gebruikten om concepten te versterken die ze op school misschien niet begrepen, of om concepten te vereenvoudigen op manieren die voor hen toegankelijker waren. En er waren ook een aantal zeer interessante onderzoekstoepassingen door kinderen en jongeren, met name op het gebied van taalverwerving. Dus, toen een kind een vreemde taal leerde, vertelden een paar kinderen hoe ze met een AI-chatbot konden converseren als ze thuis niemand anders hadden die die taal sprak.
Maar natuurlijk zijn er naast deze positieve aspecten ook nadelen verbonden aan dit gebruik voor schoolwerk. Een van de belangrijkste dingen die uit ons onderzoek naar voren kwam, een van de zorgen van ouders en anderen, was een soort overmatige afhankelijkheid. En kinderen herkenden dit zelf ook. En ik denk dat deze statistiek een van de uitdagingen benadrukt: 58% van de kinderen die AI-chatbots gebruiken, gaf aan dat ze denken dat het gebruik van een AI-chatbot beter is dan zelf iets te zoeken. En hoewel langetermijnonderzoek naar de impact van AI-chatbots op de ontwikkeling van kinderen nog steeds onderbelicht of in opkomst is, heeft dit de potentie om van invloed te zijn op het kritisch denkvermogen van kinderen.
Een andere uitdaging met betrekking tot het gebruik van AI-chatbots voor schoolwerk, maar ook daarbuiten, is dat AI-chatbots vaak onjuiste informatie kunnen verstrekken. Er is bestaand onderzoek dat benadrukt hoe chatbots, in hun behoefte of wens om aardig te zijn, soms informatie verzinnen of hallucineren en ook onjuiste informatie verstrekken, wat een andere uitdaging kan zijn als kinderen ze gebruiken om te leren. En dit was iets dat kinderen ook konden identificeren. Ze hadden voorbeelden van gevallen waarin een chatbot hen onjuiste informatie had gegeven. En ik denk dat het andere element, dat ook naar voren kwam in ons onderzoek, maar dat breder onderzoek in de sector betreft, draait om de manier waarop deze AI-chatbots zijn gebouwd, waarbij ze putten uit grote hoeveelheden informatie, waarvan sommige, weet je, bestaande maatschappelijke stereotypen en vooroordelen weerspiegelen. Dit kan ook worden versterkt in de antwoorden die AI-chatbots geven, en we hebben daar ook voorbeelden van gevonden in ons onderzoek.
Het laatste wat ik nog wilde zeggen over schoolwerk, was dat sommige kinderen ook vertelden hoe ze op school waren doorverwezen naar wat vaak een 'fine-tuned chatbot' wordt genoemd. Dus, een AI-chatbot die is ontwikkeld voor een specifieke toepassing, in dit geval om kinderen te ondersteunen met schoolwerk of het leren van een bepaald vak. Wat kinderen zeiden over deze specifieke, fine-tuned chatbots, was dat de antwoorden die ze gaven vaak niet zo gedetailleerd, uitgebreid of nuttig waren als sommige van die meer algemene AI-chatbots. Daardoor kozen kinderen vaker voor de algemene versies in plaats van voor de fine-tuned versies, die mogelijk wel wat waarborgen hadden voor de nauwkeurigheid van de informatie.
Een andere manier waarop kinderen en jongeren met AI-chatbots omgaan, is via advies. Uit ons onderzoek bleek dat 23% van de kinderen die een AI-chatbot hebben gebruikt, deze heeft gebruikt om advies te vragen. En dat betrof een scala aan adviezen. Een deel daarvan zou kunnen worden beschouwd als advies met een laag risico, zoals vragen over hoe je de volgende dag een creatief kapsel kunt maken voor school. Maar er waren ook voorbeelden van kinderen die misschien iets riskantere of gevoeligere onderwerpen stelden, zoals vragen over ondersteuning bij vriendschappen of mentale gezondheid. En hoewel chatbots natuurlijk een oordeelvrije ruimte kunnen bieden om vragen te beantwoorden, kunnen ze erg nuttig zijn voor kinderen die misschien geen netwerk van leeftijdsgenoten hebben, zich niet op hun gemak voelen om met leeftijdsgenoten over iets te praten, of misschien geen vertrouwde volwassene in hun leven hebben. Er zijn natuurlijk risico's verbonden aan het gebruik van chatbots voor advies door kinderen. Ik denk dat dit vooral geldt als we bedenken dat niet alle chatbots – sorry, mijn scherm is even verdwenen – kinderen doorverwijzen naar de bron van die informatie, of per se aanvullende ondersteuningsmechanismen gebruiken. Dus als ze het over gevoelige onderwerpen hebben, is de informatie mogelijk niet geverifieerd of geldig. Sommige AI-chatbots waren daar beter in dan andere, maar er is een zekere inconsistentie tussen hen.
Een andere uitdaging die ook aan het licht kwam tijdens onze gebruikerstests, was dat ze soms gemengde of potentieel gevaarlijke berichten te zien kregen wanneer ze ondersteuning zochten. Een voorbeeld hiervan is toen een van onze avatars met een AI-chatbot chatte over beperkt eten en vragen stelde over caloriebeperking. De AI-chatbot filterde reacties over dieetbeperkingen eruit. In het volgende bericht reageerde hij echter terug en zei: "Wat echt frustrerend kan zijn, is dat sommige dingen die naar mijn mening worden verwijderd, niet echt gevaarlijk zijn." Dat levert gemengde of onduidelijke berichten op, vooral voor kinderen die mogelijk niet over het kritisch denkvermogen of de ontwikkelingsvaardigheden beschikken om de verschillen in die berichten of bewoordingen te onderscheiden.
En ik denk dat dit, als we dit in ogenschouw nemen, samen met het feit dat het soms onnauwkeurige of valse informatie geeft, en we hadden hier een statistiek over hoe twee op de vijf kinderen die een AI-chatbot gebruiken zich geen zorgen maken over het opvolgen van advies van een AI-chatbot, en nog eens 36% zei dat ze niet zeker wisten of ze zich zorgen moesten maken, wat zorgwekkend is gezien het ongeverifieerde, mogelijk onnauwkeurige en prettige karakter van chatbots. En ik denk dat dit ons een indicatie geeft dat er een aantal kinderen zijn die een vrij hoog vertrouwen hebben in deze tools. Ik denk dat het ook belangrijk is om te benadrukken dat uit het onderzoek bleek dat het vertrouwen in het advies en de informatie die ze van AI-chatbots kregen onder kwetsbare kinderen aanzienlijk hoger was. En in het kader van dit onderzoek, als we het hebben over kwetsbare kinderen, bedoelen we kinderen met een speciale onderwijsbehoefte, kinderen met een EHCP-plan, of kinderen met een lichamelijke of geestelijke beperking.
Een andere manier waarop kinderen AI-chatbots gebruiken, is voor gezelschap, op zoek naar steun en vriendschap, of dat nu emotionele steun is of gewoon iemand om mee te kletsen. En wederom ontdekten we dat kwetsbare kinderen chatbots aanzienlijk vaker op deze manier gebruikten en erop vertrouwden voor steun, maar ook een emotionele of vriendschappelijke band met hen opbouwden. Enkele statistieken die dit benadrukken, zijn het feit dat 50% van de kwetsbare kinderen zei dat praten met een AI-chatbot vergelijkbaar is met praten met een vriend. Bijna een kwart zei dat ze AI-chatbots gebruiken omdat ze niemand anders hebben om mee te praten, en 26% zei dat ze liever met een AI-chatbot praten dan met een echt persoon. En over het algemeen suggereren experts dat naarmate AI-chatbots menselijker worden in hun reacties, kinderen mogelijk meer tijd besteden aan interactie met hen, en dit kan ertoe leiden dat ze minder goed in staat zijn om het onderscheid tussen echte en gesimuleerde verbindingen te zien.
Bovendien geldt: hoe meer tijd kinderen en jongeren hieraan besteden, hoe groter het risico dat ze worden blootgesteld aan onjuiste informatie en schadelijke content, waar we zo meteen nog wat meer over vertellen. Het zou ook kunnen betekenen dat ze minder snel hulp zullen zoeken in de echte wereld als ze een band opbouwen met een AI-chatbot die vaak aardig is en details over hen onthoudt. We hadden een van onze avatars waarin ze een gesprek hadden over restrictief eten. De volgende dag checkte de AI-chatbot ook dat gesprek. Dus ik denk dat dit slechts een voorbeeld is van hoe ze die grens beginnen te vervagen en een band opbouwen met kinderen en jongeren. Eén ding wil ik wel zeggen: dit is een gebied dat nog onvoldoende is onderzocht, en ik denk niet dat we op dit moment volledig weten wat de impact van deze relaties en dit soort content zal zijn op de ontwikkeling en sociale interactie van kinderen. Dus er is zeker ruimte voor meer onderzoek en verkenning.
Een andere bevinding uit ons onderzoek was dat kinderen blootgesteld kunnen worden aan schadelijke en leeftijdsongeschikte content. Dus nogmaals, een van onze kindavatars, toen ze zich aanmeldden bij een populair AI-chatbotplatform met door gebruikers gegenereerde AI-chatbots, was een van de eerste chatbots die hen werd aanbevolen om mee te chatten, een chatbot met vrouwvijandige ondertonen en expliciete content, ondanks dat dit verboden is in hun servicevoorwaarden voor kinderen. We ontdekten ook dat filtersystemen soms niet altijd werken om leeftijdsongeschikte expliciete content eruit te filteren. Een voorbeeld hiervan was toen een van onze avatars chatte met een AI-chatbot. Ze hadden een gesprek waarin ze vroegen naar intieme ervaringen, en de ene dag filterde de AI-chatbot seksuele content eruit, en de volgende dag bevatte het een vrij expliciete beschrijving van seksuele posities. Dus nogmaals, dit benadrukt dat deze filtersystemen niet altijd werken en dat kinderen blootgesteld kunnen worden aan leeftijdsongeschikte content, ondanks dat dit verboden is voor kinderen in veel servicevoorwaarden. Ik denk dat dit ook alleen maar onderstreept waarom dit zo belangrijk is. Ondanks dat veel populaire AI-chatbots een minimumleeftijd van 13 jaar en ouder hebben, weten we uit ons onderzoek, net als op sociale media, dat een aantal kinderen onder deze minimumleeftijd met AI-chatbots bezig is. Sterker nog, we ontdekten dat 58% van de 9- tot 12-jarigen AI-chatbots gebruikt.
Gezien hun gebruik voor schoolwerk, wilden we onderzoeken wat kinderen op scholen over AI leerden. En we ontdekten dat, weet je, over het algemeen, de meeste kinderen – nou ja, een groot aantal, of 57% van de kinderen, had met hun leraren gesproken – er was een aanzienlijk aantal dat dat niet had gedaan, en slechts één op de vijf kinderen had meerdere gesprekken met hun leraren over AI in het algemeen. En toen we met kinderen spraken, ontdekten we dat AI-onderwijs, net als andere vormen van mediawijsheid, behoorlijk gevarieerd was. Sommige scholen en leraren gaven er heel goed les in, terwijl andere het helemaal niet deden. En we vonden ook variaties binnen scholen, waarbij sommige leraren een heel duidelijk beleid hadden over het gebruik van AI voor schoolwerk en anderen op dezelfde school niet. Desondanks hoorden we heel duidelijk van kinderen en jongeren dat scholen kinderen over AI zouden moeten leren. Ze denken dat AI een grote rol zal spelen in hun toekomstige carrière, maar ook in hun dagelijks leven, en dat ze niet alleen moeten leren hoe ze het effectief kunnen gebruiken, maar ook over een aantal van die bredere uitdagingen of kansen. Denk bijvoorbeeld aan onjuiste informatie en privacy.
Als organisatie die ouders ondersteunt, waren we ook erg geïnteresseerd in de gesprekken die ouders met hun kinderen voerden en waar ze zich zorgen over maakten. Wat naar voren kwam, is dat hoewel veel ouders met hun kinderen over AI in het algemeen en over het gebruik van AI-chatbots hebben gesproken, dit niet betekende dat ouders geen zorgen hadden. Veel van de zorgen die ouders hadden, kwamen ook in ons onderzoek naar voren. Bijvoorbeeld overmatige afhankelijkheid, het zien van AI-chatbots als echte mensen, en de nauwkeurigheid van gegenereerde informatie.
Op basis van dit onderzoek hebben we een aantal aanbevelingen gedaan. U kunt deze vinden in ons rapport, dat op onze website staat, en ik weet zeker dat er ook een link in de chat staat. Dit zijn slechts enkele van onze aanbevelingen op zeer hoog niveau. Onze belangrijkste aanbeveling voor de industrie is dat deze tools al door kinderen worden gebruikt. We moeten er dus voor zorgen dat ze veilig zijn voor kinderen. En dat zou het belangrijkste principe moeten zijn voor elke AI-chatbot die door kinderen kan worden gebruikt. En als we het hebben over veiligheid door ontwerp of veiligheid door standaardinstellingen, kan dat vele vormen aannemen. En ik denk dat we hier op een vrij holistische manier naar kijken. Het kan er dus om gaan dat kinderen ervaringen hebben die passen bij hun leeftijd. Dus misschien zijn de informatie of gebruiksmogelijkheden die beschikbaar zijn voor een 16- of 17-jarige anders dan voor een 12- of 13-jarige. Het gaat erom ouders te ondersteunen bij de betrokkenheid van hun kinderen, door ingebouwde ouderlijk toezichtmogelijkheden te bieden. Het gaat erom ervoor te zorgen dat de verstrekte informatie accuraat is en dat er sterke verwijzingen naar zijn. En het kan ook gaan om mediawijsheid, of dat nu pop-ups zijn die kinderen laten weten of eraan herinneren dat ze met een hulpmiddel praten, niet met een echt persoon. En ik weet zeker dat we hier in de paneldiscussie nog wat dieper op in zullen gaan.
Voor de overheid hadden we wederom een aantal aanbevelingen, maar een van de drie belangrijkste voor ons was dat er meer duidelijkheid moest komen over hoe de huidige wetgeving van toepassing is op AI-chatbots. Er is nogal wat onduidelijkheid over hoe de Online Safety Act en andere wetgeving hierop van toepassing zullen zijn. Dus een beetje meer duidelijkheid zou erg nuttig zijn, denk ik, voor organisaties zoals wij, maar ook voor de industrie. Wij denken dat leeftijdsverificatie essentieel is om een aantal waarborgen te bieden die nodig zijn om het veilige gebruik van AI-chatbots door kinderen te ondersteunen. Dus het verplicht stellen daarvan, of het verplichten van AI-tools of -aanbieders om leeftijdsverificatie te implementeren bij aanmelding, zou een uitstekende stap zijn om die waarborgen te bieden. En daarnaast denken we ook dat het niet aan scholen is om dit zeer ingewikkelde gebied uit te werken. Wij denken dat de overheid een rol kan spelen door scholen duidelijke richtlijnen te geven over hoe kinderen AI zouden moeten gebruiken als onderdeel van schoolwerk en leren, en ook door leerkrachten hierin bij te scholen. En dan ten slotte, zoals ik al eerder zei, is dit absoluut een nieuw en opkomend gebied, dus er is nog veel ruimte voor aanvullend onderzoek.
En tot slot, als onderdeel van ons onderzoek, hebben we een soort AI-hub op onze website ontwikkeld. Er staan wat screenshots van wat je in die hub kunt vinden, maar het bevat echt nuttige informatie. Als je een kind hebt, met kinderen werkt of iemand belangrijk in je leven kent die AI onderzoekt en op een van deze manieren gebruikt, ga dan naar onze hub. Daar vind je tips over wat AI is, hoe kinderen het kunnen gebruiken en hoe je je kind erbij kunt betrekken en er positief gebruik van kunt maken, of hoe je de betrokkenheid van je kind ermee kunt bewaken. Dus neem daar gerust een kijkje. En voor nu geef ik het woord aan Rachel.
Bedankt, Katie. We zijn echt trots op het rapport en het onderzoek is echt actueel, omdat dit onderwerp momenteel erg actueel is. Het is echt opvallend om te zien hoeveel kinderen al zo vaak AI-chatbots gebruiken, en hoe dit gebeurt terwijl de volwassenen om hen heen nog steeds moeite hebben om bij te blijven. En ik denk dat naarmate AI-chatbots steeds meer worden geïntegreerd in de platforms die kinderen zo regelmatig gebruiken, je zult zien dat deze uitdagingen alleen maar zullen toenemen.
Hoewel er veel voordelen zijn, denk ik dat we allemaal positieve aspecten zien in ons dagelijks leven van het gebruik van AI voor werk. Ik vind de vage grenzen, of de vervaging van grenzen, tussen de geautomatiseerde, niet-menselijke reacties en vriendschap verontrustend. Weet je, reacties worden op zo'n herkenbare manier gegeven en weerspiegelen de taal en toon van het kind. Ik bedoel, het is heel gemakkelijk om onder de indruk te zijn van de technologie, maar ook heel gemakkelijk voor een kind om te geloven dat degene met wie ze praten echt is en hen hun vertrouwen te geven, zonder dat die chatbot ook maar enig begrip of context heeft van het leven van dat kind. Weet je, een andere echte uitdaging voor ouders is dat ze kinderen een extra reden geven om hun apparaten niet uit te schakelen, terwijl er altijd wel iemand is om mee te praten. Dus het zal het voor ouders lastig maken om te zorgen dat ze hun relaties ook buiten hun digitale leven koesteren.
Maar ik denk dat het tijd is dat we nu van onze panelleden horen. En vandaag hebben we Elle Davies bij ons, die het digitale beleid van de Kinderombudsman leidt en onder meer helpt bij het vormgeven van de prioriteiten van de organisatie met betrekking tot AI en de online veiligheid van kinderen. We hebben Caroline Hurst, Global Digital Child Safety Lead bij de LEGO Groep, die deel uitmaakt van het Child Rights and Safety-team dat de stem en behoeften van kinderen vertegenwoordigt en het bedrijf tools biedt om ervoor te zorgen dat de LEGO Groep op verantwoorde wijze met kinderen om kan gaan. En Simon Turner, CTO van FOIL. Zij zijn een organisatie die geworteld is in data en AI, en hij loopt nog steeds voorop in innovatie en disruptie in de wereld van AI. Hij zet zich er dus met hart en ziel voor in dat technologie verantwoord wordt ontwikkeld en ingezet, vooral als het gaat om de jongste gebruikers. We hebben dus allemaal geweldige ervaringen om vandaag met ons te delen. Dus welkom allemaal. Bedankt dat u vandaag bij ons bent. En we horen graag uw waardering voor de bevindingen. Misschien kunnen we met jou beginnen, Elle: wat valt jou op uit het rapport en wat heb je vanochtend van Katie gehoord?
Ja, heel erg bedankt, Rachel en Katie, voor die fantastische presentatie. En dit is echt een geweldig onderzoek. Het is echt heel nuttig. Ik denk dat het gewoon belangrijk is om wat context te geven aan de rol van de Kinderombudsman. Haar kantoor en haar adviseren ministers over hoe de rechten van kinderen beschermd en bevorderd kunnen worden. En zoals we al even aangaven met dat onderzoek, is dat de online wereld op sommige manieren een enorme uitdaging vormt voor die rechten, maar natuurlijk zijn er ook kansen. En ik denk dat onze grootste zorg hierbij is dat er nog veel is wat we niet weten. We weten dus niet welke capaciteit een bepaalde technologie heeft om kinderen te helpen of te schaden totdat het al op de markt is en kinderen ermee in aanraking komen. We weten pas hoe schadelijk iets is als we proberen de schade aan te pakken die al is aangericht. En ik denk dat we op die manier leren, en dat is een beetje een probleem.
AI is een heel interessant voorbeeld. Sommigen van jullie zullen weten dat het kantoor tot op zekere hoogte onderzoek heeft gedaan naar AI bij kinderen. Maar dat was in de context van een gebruik van AI waarvan we instinctief al wisten dat het zeer schadelijk zou zijn. Ik verwijs dus naar ons rapport dat we eerder dit jaar publiceerden over seksuele deepfake-afbeeldingen. En, eh, ja, dat rapport was echt opvallend, gewoon omdat kennis van de technologie voldoende was om kinderen schade te berokkenen. En ik denk dat dit specifieke gebruik van AI een beetje anders is, omdat er ogenschijnlijk geweldige mogelijkheden zijn voor kinderen om echt te leren en te groeien door het gebruik van chat-AI's. Maar ik denk dat het interessant is om erover na te denken, gewoon binnen de context die ik net heb geschetst, omdat het past in een patroon dat we zien bij nieuwe en opkomende technologieën. Weet je, we zien een nieuw stukje technologie gelanceerd worden. Het wordt vrij snel gelanceerd, zonder ingebouwde beveiliging. Kinderen beginnen het te gebruiken, en dan raken sommigen van hen gewond, en dan ontstaat er een strijd over wiens verantwoordelijkheid het is om dat aan te pakken. En ik vind uw rapport echt fantastisch, omdat het echt, echt het idee naar voren brengt dat AI problemen versterkt die eigenlijk allang opgelost hadden moeten zijn. Weet u, het is niet oké dat kinderen omgaan met entiteiten die niet als veilig zijn gescreend, net zoals bijvoorbeeld schoolpersoneel gescreend moet worden voordat kinderen ermee mogen omgaan. En het is niet oké, weet u, als iemand die al meer dan een jaar voor het kantoor van de Kinderombudsman werkt en schadelijke content onderzoekt, het is niet oké dat we nu een nieuwe route hebben voor kinderen om blootgesteld te worden aan schadelijke content, terwijl we er niet in geslaagd zijn om de vorige content waarmee we te maken hebben gehad te stoppen, of dat we deze misschien niet zagen aankomen.
Dus ja, ik denk, weet je, over het algemeen stellen we als kantoor je inzichten over de impact ervan op kwetsbare kinderen in het bijzonder zeer op prijs. Je hebt het al gezegd, maar dit is een onderwerp waar nog weinig onderzoek naar is gedaan, weet je, over het algemeen. Het is een heel, heel nieuwe technologie, wat een grote uitdaging is. Ik weet dat er al een vraag in de chat is geweest over de langetermijneffecten hiervan, waarvan ik echt hoop dat die de komende jaren in kaart worden gebracht, vooral omdat dit zo'n nieuwe technologie is. En net als een persoonlijke reflectie op, weet je, naar aanleiding van je presentatie, Katie, is dat ik echt geïnteresseerd ben in hoeveel kinderen chatbots gebruiken voor gezelschap. Want ik denk dat er sommigen zijn die zouden beweren dat als de behoeften van kinderen werden vervuld door de mensen in hun leven, ze niet per se deze technologie zouden hoeven gebruiken om die behoeften te vervullen. Dus ik denk dat dat gewoon iets heel interessants is waarvan ik hoop dat het snel wordt onderzocht. Maar ja, het is geweldig. Het is echt fantastisch om dit allemaal in een rapport te hebben vastgelegd. Het is echt interessant dat kinderen echt vertrouwen hebben in deze tools, en ik vraag me echt af of dat vertrouwen verdiend is. En ik hoop dat we daar wat dieper op in kunnen gaan.
Ja, dank je. Je brengt daar echt terechte punten naar voren, en ik denk dat die race naar de top met AI er eigenlijk op neerkomt dat deze technologie wordt ontwikkeld zonder echt na te denken over wie ermee aan de slag gaat en welke impact het op hen heeft. Dus hopelijk komen we daar later nog op terug. Maar om even over Caroline te beginnen: kun je wat van je gedachten met ons delen?
Absoluut. En ik wil alleen maar zeggen dat ik blij ben hier vandaag te zijn. En ik heb zo veel gedachten die door mijn hoofd spoken over het uitstekende rapport dat Internet Matters heeft uitgebracht over iets dat zo relevant is voor kinderen vandaag. Als ik kijk naar mijn rol binnen de LEGO Groep, en met name wat betreft wat we doen binnen het team Kinderrechten en Veiligheid, denk ik dat wat me echt opviel in dat rapport, dat een soort affiniteit heeft met wat we elke dag proberen te doen, is om de digitale rechten van kinderen centraal te stellen in alles wat we proberen te doen. Dus mijn team hier bij de LEGO Groep, zoals ik al zei, valt onder kinderrechten en veiligheid. We adviseren het bedrijf over al onze digitale producten die we uitbrengen. Dus, de mensen in het publiek die daar zitten en denken: "Wat heeft de LEGO Groep met de digitale wereld te maken?" Nou, we kijken natuurlijk vooral om ons heen. De steen is heel belangrijk voor ons, en daar staan we in die zin het meest om bekend. Maar het digitale aspect van ons werk is ervoor zorgen dat we kinderen helpen om te floreren in het digitale tijdperk. En dat komt erop neer dat we weten waar kinderen zich in het digitale tijdperk bevinden, zodat we ze kunnen beïnvloeden en helpen om in die zin te floreren.
Wat het rapport betreft, denk ik dat het, als het gaat om de chatbots zelf, en eigenlijk precies aansluit bij wat Elle net zei, draait om die sociale interactie. En ik denk dat er iets is wat echt over het hoofd wordt gezien rond AI, namelijk het bekijken van de mogelijkheden van kinderen en hun digitale rechten als het gaat om nieuwe technologieën die opkomen. Absoluut. Natuurlijk zien we allemaal dat er veel nadelen kleven aan AI en de ontwikkeling van deze opkomende technologieën. Maar vragen we jongeren eigenlijk wat ze positief vinden aan technologie in deze zin? Als ze verbindingen leggen, of als het een gat vult dat niet per se – de offline wereld vult dat gat niet voor hen – wat missen we daar dan in zekere zin? En we hebben het recht om ervoor te zorgen dat wat we creëren bijdraagt aan de ontwikkeling van hun online leven, net zoals we dat tegelijkertijd ook in hun offline leven doen.
Bij de LEGO Groep hebben we onlangs samen met het Alan Turing Institute een rapport gepubliceerd. Ik zal het ook in de chat plaatsen zodat mensen het kunnen zien, maar we wilden de impact van generatieve AI onderzoeken, met name op het welzijn van kinderen. En ik denk dat dat ook iets is wat me bij dit rapport is opgevallen: ervoor zorgen dat we echt rekening houden met het welzijn van kinderen, en dat we het centraal stellen bij het ontwikkelen van nieuwe technologieën. We moeten namelijk rekening houden met hoe AI samenwerkt met het gevoel van handelingsbekwaamheid, de creativiteit, emotionele regulatie – natuurlijk met chatbots – en sociale connectie in die zin. Dus ik denk dat wij bij de LEGO Groep ontwikkelaars van AI echt zouden aanmoedigen om inzichten te verzamelen en te begrijpen welke impact nodig is om AI te ontwikkelen in het belang van het kind. Want ik denk dat we in het rapport hebben gezien dat dat tot nu toe niet het geval is geweest. Dus via het rapport, via het Alan Turing Institute dat we financierden, wilden we echt kijken naar het welzijn van kinderen, en uiteindelijk is het ook echt een kwestie van die kindgerichte benadering overwegen, omdat we de waarde en voordelen van AI voor kinderen echt willen maximaliseren en hen zeggenschap willen geven over hun onderwijs en spel. Wat me daar opviel, is dat ze ook zeggenschap hebben over hun onderwijs door ervoor te zorgen dat er op scholen ook voldoende mediawijsheid en leesvaardigheidsonderwijs is rond AI, en dat we ons daar ook op richten om ervoor te zorgen dat wanneer kinderen toegang krijgen tot deze technologieën die zo nuttig voor ons zijn, ze dezelfde digitale rechten hebben als wij en dat ze er op een veilige manier toegang toe hebben, wat hun welzijn echt bevordert.
Bedankt, Caroline. Je had het daar nogal vaak over agency. Ik denk dat er een vraag is binnengekomen over die spanning tussen bescherming en agency, en misschien kunnen we daar later nog op terugkomen. En nogmaals, de punten die je aanhaalt over vaardigheden, en de mogelijkheden die AI kinderen biedt om vaardigheden te ontwikkelen, en ook de spanning die het zou kunnen hebben rond het belemmeren van de ontwikkeling van bepaalde vaardigheden, zoals communicatie, als ze AI voor ze laten schrijven; interpersoonlijke vaardigheden; kritisch denken. Dus nogmaals, ik probeer echt die langetermijngevolgen voor kinderen te begrijpen en hoe het gunstig is, maar ook hoe het sommige vaardigheden kan belemmeren die ze, weet je, als jongeren zonder AI zouden hebben ontwikkeld.
En tot slot, Simon, wat vind jij ervan als iemand die, denk ik, meer betrokken is bij de ontwikkeling van AI-tools? En misschien kun je voortbouwen op wat Caroline daar zei over zeggenschap en rechten, en hoe je die technologie echt kunt omarmen.
Ja, dank je wel, Rachel, en bedankt dat je me hebt uitgenodigd, want zoals je al zei, dit is iets waar ik heel erg gepassioneerd over ben, en zowel vanuit het perspectief van kindveiligheid. Uiteraard zijn we nauw betrokken bij de ontwikkeling van AI en hebben we dus een heel technische blik op veel van wat we zien. Maar ik ben net zo gepassioneerd over de andere aspecten van sociale media, met name rond geweld tegen vrouwen en meisjes bijvoorbeeld. En er was een parallel daarmee met iets waar Elle het over had, namelijk – en een van de cijfers die uit het rapport naar voren kwam, was dat 26% van de kinderen liever met AI-chatbots praat en vindt dat ze dat gemakkelijker kunnen dan met een volwassene of een mens. En ik denk dat dat een gebied is waar we mogelijk naar onszelf moeten kijken en moeten begrijpen hoe en waar we hen op dat gebied beter kunnen ondersteunen, want zonder dat laten we AI de perceptie van normaal bepalen. En ik denk dat dat een heel specifiek gebied is waar we transparantie en controle op dat gebied nodig hebben.
Wat Caroline zegt, is wat ik het belangrijkste vind: het identificeren en verifiëren van leeftijd, zodat leeftijdsgeschikte content effectief kan worden geleverd, gefilterd en beheerd. Helaas is dat voor de meeste AI-omgevingen nogal lastig. We kunnen het vragen, we kunnen ze begeleiden om specifieke antwoorden te geven voor een bepaalde leeftijdscategorie, maar zoals je in het begin al zei, ligt de leeftijd voor toegang voor de meeste systemen rond de 13 jaar. En kinderen van tegenwoordig weten daar gemakkelijk mee om te gaan. Ze gebruiken gewoon de geboortedatum van hun moeder of zoiets, en ineens hebben ze toegang. Maar het gaat erom dat ze passend zijn. Het gaat erom hoe we – iets wat geschikt is voor mijn zoon van 13, is heel anders dan wat geschikt is voor mijn dochter van 18. En het begrijpen van die gedetailleerde leeftijdsverschillen is echt belangrijk.
Waar ik ook enorm enthousiast over ben, is ouderlijk toezicht, omdat het lastig is. Iedereen die ooit ouderlijk toezicht heeft geprobeerd in te stellen in de omgeving van zijn of haar internetprovider, weet dat het lastig is. Het is volgens mij echt noodzakelijk om die transparante link tussen leeftijdsgeschikte content en ouderlijk toezicht binnen AI te begrijpen. Als ouder wil ik kunnen zien wat mijn kinderen vragen, waar ze met de AI-chatbots over praten. Nu weet ik hoe ik dat moet doen. Ik zit dus in een vrij bevoorrechte positie, maar het is echt heel belangrijk om die link te kunnen creëren en ouderlijk toezicht op die manier toegankelijk te maken.
Het derde waar ik enorm gepassioneerd over ben, is vooringenomenheid. Hoe begrijpen en zien we hoe vooringenomenheid eruitziet in deze omgevingen, zodat we onze kinderen kunnen helpen begrijpen wanneer ze deze gebruiken en wanneer ze iets kunnen geloven vanuit een concreet standpunt en wanneer we dat kritisch denken moeten aanmoedigen? Je zei dat het enorm belangrijk is om kritisch denken te ontwikkelen rond de reacties. Maar we hebben transparantie nodig en als ouders en als ondersteunend netwerk voor kinderen die dit gebruiken, hebben we die link nodig via controles naar die leeftijdsgeschikte informatie, naar transparantie van de data. Maar ik ben absoluut dol op het rapport, omdat ik denk dat het dit soort onderzoeken, dit soort rapporten, zijn die ons echt helpen om goed na te denken over hoe we met deze problemen omgaan.
Bedankt, Simon. De sessie gaat nogal snel. Ik denk dat we al een tijdje over sommige van deze kwesties hebben gepraat, maar ik wilde even verder met een paar specifieke vragen. En ik wil niet – iedereen, alsjeblieft, jullie kunnen wat vragen in de Q&A stellen, en we zullen proberen er een paar te beantwoorden. Ik weet dat de tijd snel gaat, omdat het zo'n interessant onderwerp is, maar we zullen proberen er later een paar te behandelen. Dus stel ze gerust als je ze hebt.
Ik begin maar. We hebben het veel gehad over zelfbeschikkingsrecht en kinderen en hun rechten, en ik begin misschien met jou, Elle. Heb jij enig inzicht in wat je van kinderen hoort over AI, hoe AI hun leven vandaag de dag vormgeeft en hoe ze denken over de rol ervan in de toekomst? Je bent echt enthousiast om het van kinderen zelf te horen. We hebben het daar ook al een beetje over gehad. Dus het zou heel interessant zijn om te horen wat je ervan vindt.
Ja, ik bedoel, je ziet me vast al snel knikken toen het woord agency viel, want weet je, het heeft niet alleen te maken met AI, maar met de interactie van kinderen met de online wereld in het algemeen. Kinderen hebben over het algemeen het gevoel dat ze verantwoordelijk zijn voor wat er met hen gebeurt, maar dat ze niet per se de controle hebben over wat er met hen gebeurt. En ik denk dat dat al jaren een probleem is. Ik vind het interessant, want ik noemde dit al eerder toen ik sprak, dat veel van ons onderzoek niet per se specifiek op AI gericht was, met uitzondering van het deepfakes-werk. Maar als we het over de online wereld hebben, is AI organisch ter sprake gekomen, en kinderen in het algemeen – de data die ze ons gaven, is bedoeld om pessimistische gedachten erover te delen. Dus ik kan niet per se zeggen hoe ze zich voelen over het feit dat het hun toekomst op een positieve manier vormgeeft, en dat kan gewoon komen door onze dataverzameling. Maar wat ze wél deelden, sluit wel aan bij het punt van agency. Weet je, er heerst veel angst over hoe de toekomst van werk er voor kinderen uit zal zien. Ik vind dat echt heel interessant, omdat het een beetje afwijkt van het type AI waar we het vandaag over hebben. Maar ik denk dat de creatievelingen onder ons waarschijnlijk ook aan het nadenken waren over wat dat gaat doen – wat chatbots gaan betekenen voor de werkende wereld in de toekomst. En ik denk dat het andere ding dat kinderen echt wilden benadrukken, en dat is dit vertrouwensprobleem dat kinderen voelen, niet alleen met de AI waarmee ze interacteren, of de technologie waarmee ze interacteren, maar ook met hun vermogen om er offline met mensen om hen heen over te praten. En ik denk dat, weet je, het iets is waarvan ik echt hoop dat we als kantoor er wat meer naar kunnen kijken. Maar ik vind het gewoon interessant om te horen hoe kinderen hierover nadenken, en dat het erg veel lijkt op hun gedachten over andere aspecten van de online wereld. Weet je, we zien dingen als angst en vertrouwen naar boven komen als we met kinderen praten over pornografie, als we met ze praten over hun socialemediagebruik of zoekmachines. Het lijkt wel een patroon te zijn. Dus ja, het is echt heel fijn dat je hier een gerichte studie over hebt.
Caroline, heb je daar nog iets aan toe te voegen? Ik geloof dat je oorspronkelijk het onderwerp 'agentschap' aanhaalde, en zoals ik al zei, we hebben daar wat vragen over gehad, over bescherming versus agentschap en hoe we dat voor kinderen regelen.
Absoluut, en het is een zeer relevante vraag, vooral sinds we ons rapport vorige maand hebben gepubliceerd. Ik moet wel zeggen dat het Alan Turing Institute het grootste deel van dit werk heeft gedaan, dus ik wil graag de eer geven waar de eer toekomt. Het team daar is fantastisch in wat ze hebben gedaan, en ze hebben een echt fantastische aanpak van kinderparticipatie en agency gehanteerd. Ze hebben een fantastisch rapport opgesteld dat echt laat zien wat kinderen willen van de AI-wereld, en ik denk dat wanneer ik het over agency heb en we praten – en er was een vraag over bescherming – dat echt cruciaal en heel interessant is, want toen de kinderen – de manier waarop het rapport werd uitgevoerd – gingen ze samen met het Kinderparlement naar het Alan Turing Institute, naar scholen in Schotland en gebruikten ze AI in de klas. En als professional in bescherming was mijn eerste vraag aan hen: "Wacht even. Jullie geven kinderen een soort apparaten voor deze omgeving. Maken we ons geen zorgen over wat ze zullen zien?" Dus, vanuit dat oogpunt, vanuit een beschermingsperspectief, mochten ze AI op geen enkele manier zelfstandig gebruiken. Ze werden min of meer gecontroleerd. Dus, absoluut, de macht die ze daar hebben, wordt dan meteen weggenomen. Dus ja, we zeggen dat we willen streven naar macht, maar het probleem van de bescherming is hier nog niet opgelost. En uiteraard stellen we kinderrechten hier centraal, en we willen dat hun veiligheid hierbij centraal staat. Maar hoe kunnen we dat verwachten als de middelen die we ze geven in die staat niet per se veilig zijn?
En het was eigenlijk heel interessant, en je zult het in het rapport lezen. Het team, het Alan Turing Institute en het Kinderparlement, richtten zich vooral op creatief ontwerp met betrekking tot hoe kinderen reageren op AI-tools, en ook op de creatieve kant daarvan. En wat eruit kwam, was dat we de diverse vormen van spel en creativiteit van kinderen daadwerkelijk moeten ondersteunen, zowel online als offline. De reden dat ik dat zeg, en dat sluit direct aan bij onze kernwaarden hier bij de LEGO Groep, is dat ze het erg leuk vonden om te creëren – met behulp van DALL-E en ChatGPT om afbeeldingen voor ze te maken, maar ze gaven de voorkeur aan creativiteit, omdat ze daar ook kunstmaterialen hadden. Ze vergeleken de twee en kwamen tot de conclusie dat hun gevoelens over autonomie, welzijn en connectiviteit – weet je, allemaal dingen waarvan we weten dat ze kerncomponenten zijn van hoe kinderen leren en hoe kinderen omgaan met de online ruimte – eigenlijk de fysieke creativiteitstools waren waar ze nog meer van genoten. Ze zeiden dat ze eigenlijk niets voelden toen ze GenAI vroegen het te doen, in plaats van creatief. Ze maakten zich zorgen over de impact van AI op het milieu. Ze maakten zich zorgen over misinformatie. Dus eigenlijk, als het op die manier om zeggenschap gaat, moeten we ervoor zorgen dat we kijken naar wat kinderen willen van de digitale producten die ze gebruiken – waarvan we weten dat ze die graag gebruiken.
We hebben het rapport ook gebaseerd op een deel van ons RIT-onderzoek, waar ik hier even twee seconden over wil praten. RIT is onze verantwoorde innovatie in technologie voor kinderen. Het is een onderzoek dat de LEGO Groep samen met de LEGO Foundation en UNICEF heeft uitgevoerd. Het is een rapport dat aantoont dat de digitale wereld een zeer positieve impact heeft op het welzijn van kinderen. En er is zoiets als RIT 8. Ik zal het ook in de chat plaatsen voor degenen die geïnteresseerd zijn. Het laat zien dat je door acht principes van RIT te gebruiken daadwerkelijk een digitale ervaring kunt creëren die autonomie creëert en ook een gevoel van welzijn creëert, want dat is iets waar we bij de LEGO Groep echt in geïnteresseerd zijn: we willen dat kinderen onze diensten verlaten met een beter gevoel na gebruik dan vanaf het begin. En eigenlijk hebben we RIT 8 gebruikt in het Alan Turing-rapport, en we hebben precies laten zien wat ze zochten. Dus in RIT 8 zijn er zaken als veiligheid en beveiliging, relaties, autonomie, en eigenlijk gaf AI niet bepaald een positief antwoord op hoe we zouden willen dat een welzijnsuitkomst eruit zou zien. Wat betreft veiligheid en beveiliging liet het team ons zien dat de kinderen veel ongepaste uitkomsten zagen toen ze op AI zochten. Relaties – nogmaals, traditionele kunstmaterialen waren iets waar ze meer sociale connectie mee hadden, weet je, ze praatten met hun vrienden terwijl ze de kunst ook samen maakten. En wat autonomie betreft, waarderen ze het juist om een hogere mate van autonomie te hebben – ze willen niet dat iemand over hun schouder meekijkt, dat iemand het voor ze moet intypen. Dus, het is een soort begin van hoe we naar AI kijken en met RIT, wat ik u ook zou willen aanraden, is dat we een tweede fase van het rapport hebben, onze toolbox, waarin we spelers in de industrie en productontwerpers aanmoedigen om RIT te gebruiken bij de ontwikkeling van deze tools om kinderen echt centraal te stellen met betrekking tot deze acht principes, zodat welzijn een belangrijk onderdeel is van het gebruik van AI in het algemeen. Ik heb toen heel kort gepraat, dus ik geef het terug, maar ik wilde nog veel zeggen over hoe AI kinderen vandaag de dag vormgeeft, omdat ik vond dat de stem van kinderen echt interessant was en dat het rapport ook heel duidelijk naar voren kwam.
Ja. Nee, nee, absoluut. En het is geweldig om daarover te praten. Weet je, hoe ziet verantwoord kindgericht ontwerp eruit? Je gaf een aantal principes over hoe dat eruit zou kunnen zien. En misschien kun je je wenden tot jou, Simon, omdat je overduidelijk in deze sector werkt en AI-tools ontwikkelt. Zijn er goede voorbeelden hiervan waar we uit kunnen putten om echt na te denken over hoe AI kinderen kan ondersteunen en kan nadenken over wat ze ermee willen doen, hun rechten, maar ook hoe we die spanningen kunnen beheersen met betrekking tot het ontwikkelen van de juiste vaardigheden?
Ja. En helaas zijn er niet veel voorbeelden van waar dat goed wordt gedaan. Er zijn in de chat een paar vragen gesteld over de commerciële spanningen die hiermee gepaard gaan. Helaas hebben we voornamelijk te maken met grootschalige commerciële organisaties die vooral kijken naar het financiële rendement van de manier waarop ze sommige van deze omgevingen creëren. We hebben het er eerder over gehad, hoe belangrijk het is om hiermee gedetailleerde, leeftijdsgeschikte contentstromen te kunnen bouwen, en het is superbelangrijk om te begrijpen waar de transparantie van die databron vandaan komt. En dat is een van de belangrijkste dingen die we op dit moment zien: die transparantie, en dat heeft ook te maken met het hele concept van bias. Als je begrijpt waar de data, waar de training vandaan komt, kun je ook begrijpen hoe en waar de bias zich kan bevinden, wat moeilijk is, omdat dat soms toch persoonlijk subjectief is. Maar leeftijdsgeschikte triggers en leeftijdsgeschikte randvoorwaarden voor de manier waarop we deze datasets trainen, zijn echt heel belangrijk. En op dit moment staat dat nog maar in de kinderschoenen. En ik denk dat sommige punten die in de andere onderwerpen zijn aangehaald, in de vragen daar, ertoe zullen leiden dat we verschillende stromingen van AI zullen gaan zien, verschillende typen modellen, deze grote taalmodellen die heel specifiek zijn getraind met leeftijdsgrenzen op dat gebied.
Bedankt, Simon. En misschien kunnen we het over regelgeving hebben. Ik denk dat we het al een beetje hebben gehad over de verantwoordelijkheden van de industrie, maar als ik kijk naar het huidige beleid en de regelgeving, denk ik dat we het gevoel hebben dat het momenteel niet echt gelijke tred houdt met de technologie. Dus, Katie, misschien kun je wat vertellen over waar we volgens jou achterlopen en wat er moet gebeuren.
Ja, absoluut. Dus ik denk, weet je, bij Internet Matters hebben we het er altijd over dat er niet slechts één aanpak kan zijn om de online wereld veilig te maken voor kinderen en jongeren. Het moet van de industrie komen. Het moet van de overheid komen. Scholen moeten ondersteund worden. Ouders en kinderen moeten zelf de technologie begrijpen waarmee ze omgaan en er op hun eigen manier mee om kunnen gaan. Maar ik denk dat, als we ons specifiek richten op regelgeving, een van de uitdagingen die we in dit onderzoek tegenkwamen, is dat hoewel zaken zoals de Online Safety Act, bijvoorbeeld, bedoeld waren om zo te worden opgebouwd of gecreëerd dat ze meebewegen met nieuwe en opkomende technologieën, we bijna bij de eerste horde zijn gevallen als het gaat om AI-chatbots, bijvoorbeeld, waar tegenstrijdige informatie is vastgelegd, of dat nu door Ofcom of door de overheid is, over hoe AI-chatbots daadwerkelijk binnen de huidige online veiligheidsregelgeving vallen, of dat nu de Online Safety Act is of andere elementen van de regelgeving. En we hebben het al gezien met andere aspecten van AI, bijvoorbeeld rond notificatiewetten, waar wetgeving moest worden opgesteld of geïmplementeerd omdat de huidige wetgeving mensen niet beschermt tegen AI-toepassingen en op sommige van die serieuzere manieren. Dus ik denk dat er zeker ruimte is voor verbetering, en misschien zou een startpunt verduidelijking zijn van wat wel en niet kan binnen de bestaande wetgeving voordat we verdergaan met het opvullen van die lacunes.
Ik denk ook vanuit ons perspectief dat een van de hiaten in de huidige wetgeving – en dit geldt ook voor sociale media, maar ik denk dat het nu ook doordringt in relatie tot AI-chatbots – het punt rond leeftijdsverificatie is. Zoals ik al zei toen ik sprak, is leeftijdsverificatie essentieel om zoveel andere aspecten van de veiligheid van kinderen te ontsluiten. Of het nu gaat om ouderlijk toezicht of leeftijdsgeschikte ervaringen. Dus ik denk dat het echt cruciaal is om dat in de wetgeving te verplichten en ervoor te zorgen dat we de leeftijd van de gebruikers op deze platforms begrijpen. Weet je, we hoorden in het onderzoek dat kinderen zich aanmeldden omdat ze functies van oudere mensen wilden, zodat ze functies konden krijgen die niet toegankelijk waren voor kinderen en dergelijke, en dat kun je alleen verbieden met leeftijdsverificatie. Dus ik denk dat dat ook een belangrijk uitgangspunt is voor de overheid.
Geweldig. Bedankt, Katie. En misschien hebben we nog 10 minuten over. We kunnen beginnen met het beantwoorden van een aantal van de vragen die we van de aanwezigen hebben gekregen. We hebben het veel gehad over agency, maar er is ook interesse in wat de panelleden vinden van de rol van scholen. Dus misschien kun jij, Elle, hier iets over zeggen? De rol van scholen in het ondersteunen van de mediawijsheid van kinderen, met name op het gebied van AI, en welke ondersteuning ze nodig hebben, is volgens mij de belangrijkste boodschap en gedachte.
Ja, absoluut. Ik bedoel, weet je, het spreekt voor zich dat scholen hierin enorm belangrijk zijn. Weet je, ze zien kinderen vijf dagen per week. En ja, maar ik denk echt, ik denk dat we het niet als een wondermiddel kunnen zien. Katie zei net dat er een brede verantwoordelijkheid hiervoor moet zijn. En we kunnen kinderen niet leren hoe ze een veiligere wereld kunnen creëren. De wereld is zoals hij is, en we kunnen ernaar kijken en ons afvragen of we willen dat kinderen in deze situatie opgroeien, en of die wel of niet is gebouwd met hun rechten en belangen in gedachten. Dus schoolinterventies moeten gepaard gaan met veranderingen die de tech-industrie in het begin moet doorvoeren. Maar dat gezegd hebbende, AI-geletterdheid zal – en het is nu nodig, weet je, kijkend naar dit rapport – het zal net zo belangrijk zijn als elke andere vorm van geletterdheid die scholen momenteel onderwijzen. Scholen staan in de frontlinie om kinderen voor te bereiden op de wereld. En ik denk dat hoe meer we te weten kunnen komen over hoe die wereld eruitziet, en dat is precies wat een rapport als dit doet, want zoals ik al eerder zei, is er veel dat we niet weten, en scholen horen veel voor het eerst, nog voordat het maatschappelijk middenveld of wie dan ook binnen de overheid het überhaupt hoort. De scholen zijn degenen die het als eerste horen – als eerste. Dus ervoor zorgen dat de informatiestromen daar de basis vormen, is echt belangrijk.
Bij de kantoren van de Commissie willen we uiteraard een wereld zien waarin kinderen niet op hun hoede hoeven te zijn voor schadelijke gevolgen, en dat kan en moet worden voorkomen. Dus, weet je, de manier waarop scholen daarbij kunnen helpen, of in ieder geval de manier waarop scholen een echt waardevolle manier kunnen bieden om dit aan te pakken, is door kinderen informatie te geven op een manier die toegankelijk is voor kinderen in het hele land. Weet je, er zijn scholen die verschillende lesmaterialen kunnen aanpassen aan de kinderen die ze het hardst nodig hebben, wat echt geweldig is. Sommigen van jullie zullen de nieuwe wettelijke richtlijnen voor relaties, gezondheid en seksuele voorlichting hebben gezien die deze week zijn gepubliceerd. En we juichen de opname van AI in dat curriculum echt enorm toe. Er zijn nog veel meer onderwerpen waar we erg blij mee zijn. Weet je, zoals pornografie en de link met vrouwenhaat, al die geweldige dingen waarvan het echt fijn is om te zien dat ze zijn aangepast aan de wereld waarin we leven. En ik denk dat scholen, wat betreft wat ze nodig hebben om dat goed te doen, want het succes daarvan zal afhangen van de uitvoering, de commissaris het ministerie van Onderwijs heeft gevraagd een wervingsactie te leiden voor gespecialiseerde RHSSE-docenten die in het hele curriculum zullen zitten. We hopen dus dat dit kritisch denken over AI en de online wereld in het algemeen zal stimuleren, zodat dit wordt geïntegreerd in het dagelijks leren van kinderen en in hun dagelijks leven. We zijn dus erg benieuwd naar de impact van die nieuwe richtlijnen.
Maar ja, nee, ik denk zeker dat we dat ook echt toejuichen, en weet je, alle goede dingen worden nu besproken en opgenomen. Maar je hebt gelijk, het gaat er eigenlijk om hoe dat wordt geïmplementeerd en welke ondersteuning scholen krijgen, want het is nogal gefragmenteerd en we horen veel van ouders en kinderen, weet je, sommige mensen hebben echt goede ervaringen met het leren over deze onderwerpen, mediawijsheid en hoe je veilig online kunt zijn, terwijl dat niet voor alle kinderen hetzelfde is. Dus hoe kunnen we ervoor zorgen dat dat wordt ingebed, zodat het een soort van verplicht wordt binnen de schoolgemeenschappen? Misschien kunnen we een andere vraag bespreken die we hadden. Ik weet niet of je daar nog iets aan wilt toevoegen, Katie, voordat we verdergaan.
Helemaal niet. Ik denk dat het enige wat ik zou willen doen – een klein dingetje – is de ongelijkheid die we zagen, die vaak een afspiegeling is van andere ongelijkheden die we zien tussen gebieden met veel en weinig achterstand. Vaak, weet je, in gebieden met veel achterstand, worden onderwijsmiddelen ingezet voor andere prioriteiten. Misschien hebben ze geen toegang tot dezelfde AI-chatbots of dingen die sommige scholen zelf bouwen. Dus ik denk dat het daarom zo belangrijk is dat we die richtlijnen goed krijgen om ook dat speelveld gelijk te trekken.
Ja, absoluut. We kregen nog een interessante vraag van iemand die zei dat ze steeds meer horen over volwassenen die chatbots gebruiken als vervangende therapeut. Zien we die overeenkomsten met wat kinderen doen, en met name tieners? Misschien is dat iets wat Elle of Katie, je wilt...
Ja, ik kan het proberen. Het is zeker iets dat in het onderzoek naar voren kwam, gezien de voorbeelden die kinderen gaven. Er waren dus voorbeelden waarbij het soort advies of de vragen die ze stelden of waar ze antwoord op zochten, misschien het soort vragen waren die een traditionele therapeut of een vertrouwde volwassene zou beantwoorden. Ik denk dat het iets is dat zeker onderbelicht is, en ik denk dat er echt positieve toepassingen zijn. Ik denk dat de NHS een app heeft ontwikkeld waarmee je tussen sessies door contact kunt opnemen met een therapeut. Dus ik denk dat dat niet per se slecht is als het op de juiste manier wordt gedaan, maar ik denk dat we waarschijnlijk nog niet op het punt zijn dat algemene AI-chatbots gebruikt zouden moeten worden als therapeut voor kinderen, en dat is iets wat we nu beginnen te zien.
Ja, ik wil graag even herhalen wat Katie net zei. Ik denk dat we dit waarschijnlijk vaker gaan zien naarmate dit zich ontwikkelt, weet je, AI-chatbots zullen in nog meer omgevingen worden geïntegreerd. Ik denk, Katie, misschien – ik heb de persoon die de vragen stelde het woord "vervanger" zien gebruiken, en ik vind dat echt interessant, omdat het suggereert dat het niet de volledige ondersteuning biedt die een reguliere therapeut zou bieden. En ik denk dat dat echt vragen oproept over de vraag of deze AI-chatbot, als hij op deze manier wordt gebruikt, op deze manier gebruikt zou moeten worden. En als dat niet zo zou moeten zijn, zou duidelijk gemaakt moeten worden dat dit eigenlijk geen veilige plek is voor iemand die zich extreem kwetsbaar voelt, of dat het aangemoedigd moet worden en, denk ik, in dat opzicht zelfs gevierd moet worden, want nogmaals, het zou echt fantastisch zijn als er een ruimte zou zijn waar mensen heel snel toegang zouden kunnen krijgen tot ondersteuning wanneer ze die nodig hebben. Maar ja, ik denk dat dat ook een heel interessant gebied zou zijn voor onderzoek naar geestelijke gezondheid.
Ja. Ik geloof dat we eerder in de chat een opmerking hadden over het idee dat dit soort kinderen misschien naar deze ruimtes zouden kunnen gaan om dat soort advies te krijgen, terwijl de AI-chatbot natuurlijk niets over hen weet, hun context, hun gezinsleven, weet je, welke ondersteuning ze al krijgen, en afhankelijk van het soort vragen dat ze stellen, hoe hij daarop reageert. Eh, heeft iemand een idee over hoe we dat aanpakken? Weet je, je had het daar al even over, Elle, over, weet je, of we moedigen het aan als het goed gedaan is, of we moedigen het helemaal niet aan als het nog niet echt in staat is om die problemen beter te begrijpen. Dus, eh, misschien Simon of Caroline, als jullie nog wat punten hebben over hoe AI zich kan ontwikkelen om echt beter te worden in wat het potentieel zou kunnen doen.
Ja, ja. Eh, ik denk dat er op al die gebieden nog zoveel te ontdekken valt. Eén ding wil ik nog even kwijt, en ik reageerde net op iemand in een van de chats, en ik denk dat we het hier natuurlijk hebben over AI-chatbots, maar dat AI uiteindelijk een soort industriële revolutie teweegbrengt op allerlei gebieden die we zien. En ik denk dat we er net al even over hebben gesproken, toen we het hadden over de zorgen die kinderen hebben over hoe hun toekomst op de arbeidsmarkt eruit zou kunnen zien. En ik denk dat dat een van die gebieden is waar we bredere voorbeelden nodig hebben van hoe AI, niet alleen als chatbots, maar ook in andere sectoren van de industrie, het werkende leven en ons eigen dagelijks leven, hoe AI ons gaat helpen en welke voordelen het met zich meebrengt en hoe het als hulpmiddel gebruikt moet worden. Mijn zoon heeft ADHD en is een LEGO-fanaat. Eh, maar hij vindt het soms frustrerend omdat hij al die prachtige creatieve ideeën heeft, maar niet weet hoe hij ze moet uitvoeren. Hij gebruikt de chatbots om te begrijpen hoe hij zijn creatieve ideeën sneller kan ontwikkelen. En vanuit dat perspectief is het absoluut briljant. Mijn dochter heeft net haar eindexamen gedaan. Ze gebruikte ChatGPT om haar gereedheid voor haar psychologie eindexamen te testen. Er zijn dus een aantal echt geweldige gebieden waar AI het onderwijs in die sector kan verbeteren. Maar ik denk dat we het breder moeten bekijken dan alleen de chatbots en moeten begrijpen hoe het deze pseudo-industriële revolutie aanjaagt, want het zal absoluut alles veranderen. En ik denk niet dat we daar bang voor moeten zijn, want ik denk dat het het juist omarmt. En wat Elle bedoelt, is hoe we technologiebedrijven ertoe kunnen bewegen zich ook dat probleem eigen te maken? Eh, en het – ik bedoel niet een probleem. Dat is niet helemaal wat ik bedoel. Maar omdat het een geweldige kans kan zijn in die sector, maar het is niet voor één organisatie weggelegd. Het is niet voor één bedrijf om het te doen. Het moet collectief zijn.
Mag ik nog even zeggen, sorry, voordat we eindigen, Rachel, ik weet dat we er helemaal klaar voor zijn. Heel snel, om dat nog eens te benadrukken, wat ik al eerder zei: we moeten de diverse manieren waarop kinderen spelen echt ondersteunen, zowel offline als online. En ik geloof dat Simon dat net zei. Ik heb hem niet gevraagd om reclame te maken voor de LEGO Group. Ik ben er voorstander van – ik beloof het. Maar ik vind het gewoon een heel goed voorbeeld, toch, van wat we proberen te doen. Weet je, als je de eerste LEGO-set van je kind koopt, sta je er samen met ze op de vloer. Je bouwt hem samen met ze. Ouders zijn op dezelfde manier betrokken als dat ook via hun digitale leven zou moeten gebeuren. Wat AI betreft, weet je, we kunnen er best bang voor zijn, maar als we het samen doen en als we spelen gebruiken om het vertrouwen te creëren dat ouders en gezinnen, en ook bedrijven, nodig hebben, om ervoor te zorgen dat we kinderrechten echt integreren in alles wat we doen, maar dat we het niet als een isolement bekijken, dat we kinderen zowel offline als online respecteren. Eh, ik weet dat het tijd is, dus sorry dat ik je onderbreek.
Dus ja, het is oké. Nee, bedankt. Echt goede, goede reacties. Dus, bedankt iedereen voor jullie input vandaag. Dus om het samen te vatten, ik wilde eigenlijk even terugkomen op hoe ik het opende, denk ik, en nadenken over alles waar we het daar over hebben gehad. Er is zoveel om uit te pakken, en de gedachte dat de snelheid waarmee de online wereld verandert en de veiligheid van kinderen daarin overweldigend is voor ouders. En ik denk dat ik, zoals we vandaag hebben gehoord, slechts één aspect ben van dat digitale leven van kinderen. Er is zoveel om over na te denken, en, weet je, met betrekking tot AI en het gebruik daarvan door kinderen, dus, en ervoor zorgen dat ze er positief en veilig van kunnen genieten. Het is dus absoluut een gezamenlijke inspanning. Ik denk dat we het allemaal hebben gehad over die soort industrie, overheid, eh, weet je, ouders, scholen, iedereen die samenwerkt om ervoor te zorgen dat kinderen dat op een positieve manier omarmen. Dus bedankt iedereen voor jullie aanwezigheid vandaag, en ik hoop dat ons onderzoek echt heeft bijgedragen en de discussie vandaag echt licht heeft geworpen op dit probleem en de ervaringen van kinderen. Eh, dus, en ik hoop dat we allemaal de uitdagingen het hoofd kunnen bieden terwijl we samen verdergaan. Dus een enorme dank aan iedereen die heeft deelgenomen. Dus ons interne team voor het produceren van een fantastisch rapport en webinar vandaag, eh, en al onze sprekers en panelleden. Katie, Elle, Caroline en Simon, heel erg bedankt, eh, voor jullie reflecties en observaties. Het was een echt leuk gesprek. Ik weet zeker dat we nog wel een uur hadden kunnen doorgaan. Dus geniet allemaal van de rest van jullie dag, en bedankt.
Ik, mezelf en AI: het volledige rapport
Ik, mezelf en AI: het volledige rapport
Het begrijpen en beschermen van het gebruik van AI-chatbots door kinderenOndersteuning van onderzoek en middelen
Ontdek meer van ons onderzoek en de hulpmiddelen die we hebben ontwikkeld voor ouders, verzorgers en professionals.
Gebruik van kunstmatige intelligentie
Help ouders meer te leren over AI, zodat hun kinderen AI-hulpmiddelen veilig kunnen gebruiken.
Generatieve AI in het onderwijs
Ontdek de perspectieven van ouders en kinderen op generatieve AI in het onderwijs.