MENU

Wat is generatieve AI (Gen-AI) en hoe kan dit het welzijn van kinderen beïnvloeden?

Bekijk de volledige #Take20Talk over hoe kunstmatige intelligentie het welzijn van kinderen kan beïnvloeden.

Deze maand hebben we deelgenomen aan de #Take20Talk van de Anti-Pestalliantie.

Lees meer over het gebruik van generatieve AI door kinderen en de gevolgen ervan, voorafgaand aan ons komende onderzoek naar generatieve AI en onderwijs.

We waren verheugd om deel te nemen aan een #Take20Talk met de Anti-Pestalliantie. De lezing gaf ons de gelegenheid om de impact van generatieve AI op het digitale welzijn van kinderen te bespreken.

Tijdens de sessie bespraken we het gebruik van generatieve AI door kinderen, de voordelen en risico’s die dit met zich meebrengt, en het huidige beleidslandschap rond deze evoluerende technologie. Deze presentatie loopt vooruit op ons komende onderzoek naar generatieve AI en onderwijs, dat begin volgend jaar zal verschijnen.

Wat is generatieve AI?

Generatieve AI (Gen-AI) is een vorm van kunstmatige intelligentie die originele tekst, afbeeldingen en audio produceert. Gen-AI-modellen worden getraind op datasets die worden gebruikt om nieuwe inhoud te maken, op basis van patronen die tijdens het trainingsproces zijn geleerd.

Gen-AI-gebruik Natuurlijke taalverwerking (NLP). Dit is een tak van AI die “zich richt op het helpen van computers bij het begrijpen, interpreteren en genereren van menselijke taal.” Deze technologieën bieden veel spannende mogelijkheden voor kinderen. Maar zoals bij alle nieuwe technologieën zijn er naast de voordelen ook potentiële risico's waar u rekening mee moet houden.

Wat zijn de kansen van Gen-AI?

Leerervaringen op maat

Genatieve AI kan leraren helpen hun lesplannen en lesmateriaal aan te passen om de verschillende leerbehoeften van hun leerlingen beter te ondersteunen. Dit zorgt daarom voor een boeiendere en inclusievere leerervaring voor diverse klaslokalen.

In feite gebruiken leraren al generatieve AI-instrumenten om ondersteuning op maat te bieden aan leerlingen met speciale onderwijsbehoeften en beperkingen (SEND).

Ondersteuning via hulplijnen

Kinderen kunnen profiteren van hulplijnen die gebruik maken van generatieve AI. Hulplijnen voor sociale en geestelijke gezondheidszorg die zijn gebouwd op generatieve AI kunnen jongeren zeer responsieve en gepersonaliseerde ondersteuning bieden. Dit kan leiden tot onmiddellijke hulp en de algehele effectiviteit van menselijke ondersteuning vergroten.

Bijvoorbeeld Kinderen Help Telefoon is een online dienst voor geestelijke gezondheidszorg die generatieve AI-technologie gebruikt om 24/7 ondersteuning te bieden aan kinderen in heel Canada. Deze dienst analyseert en matcht met behulp van NLP de communicatiestijl van jongeren. Dit leidt kinderen op hun beurt naar het specifieke hulpkanaal dat ze nodig hebben, of het nu gaat om ondersteuning bij emotionele problemen, pestproblemen of andere zorgen.

Hulplijnen bieden jongeren een veilige en anonieme ruimte om hun gevoelens en zorgen te uiten zonder angst voor oordeel. Hoewel hulplijn-chatbots snelle reacties kunnen bieden, missen ze de nuance en het aanpassingsvermogen die menselijke ondersteuning biedt. Ze zullen daarom moeite hebben om de effectiviteit van menselijke interactie volledig te vervangen.

Chatbots voor emotionele ondersteuning

Naast het ondersteunen en aansturen van jongeren aan de telefoon, kunnen AI-chatbots dienen als virtuele metgezellen. In sommige gevallen kunnen ze emotionele steun bieden aan kinderen die moeite hebben om vrienden te maken of om te gaan met sociale uitdagingen. Bovendien kunnen deze chatbots kinderen ondersteunen die zich eenzaam voelen of moeite hebben om hun gevoelens met anderen te delen.

Met de juiste waarborgen kunnen chatbots ook kinderen ondersteunen die worstelen met sociale angst. Deze hulpmiddelen kunnen een niet-oordelende ruimte bieden om gesprekken aan te gaan en sociale interacties te ontwikkelen en te oefenen.

Een voorbeeld van dit soort chatbot is Harlie. Harlie is een smartphone-app die AI-technologie en NLP-algoritmen gebruikt om met mensen te praten. Maar in plaats van alleen maar te reageren op vragen, moedigt Harlie een dialoog aan door vragen te stellen aan de gebruiker. Bovendien kan Harlie, met toestemming van de gebruiker, informatie over spraakpatronen vastleggen om te delen met gezondheids- en onderzoeksteams en gerichte therapie te bieden.

Wat zijn de mogelijke risico's?

Impact op kritisch denken

Een te grote afhankelijkheid van generatieve AI kan een negatief effect hebben op de kritische denkvaardigheden van kinderen. Dit komt omdat het de mogelijkheden vermindert om deel te nemen aan onafhankelijke analyses en probleemoplossingen. Bovendien kan het gebruik van AI als de belangrijkste bron van kennis het vermogen om informatie in twijfel te trekken en te evalueren in gevaar brengen. Zie onze gids voor kritisch denken online.

Het is belangrijk om help kinderen AI-tools te integreren in hun leerproces zonder er al te zwaar op te vertrouwen.

Parasociale relaties en pesten

Er is een zorgwekkende trend waarbij jonge gebruikers pestgedrag kopiëren en dit naar een AI-chatbot sturen. Op sociale media moedigen sommige gebruikers anderen aan om chatbots te ‘pesten’ door middel van gaslighting en algemene mishandeling.

Hoewel kinderen geen andere mensen pesten, bestaat er bezorgdheid over de manier waarop virtuele interacties pestgedrag kunnen normaliseren.

Blootstelling aan expliciete inhoud

Het gebruik van bepaalde AI-chatbots kan kinderen hieraan blootstellen expliciete en ongepaste inhoud. Een voorbeeld van zo’n chatbot is Replika. Replika is een aangepaste AI-chatbot die gebruikers aanmoedigt persoonlijke informatie te delen. Hoe meer informatie een gebruiker ermee deelt, hoe meer hij zijn antwoorden kan personaliseren.

Hoewel de website beweert alleen voor 18-plussers te zijn, is er geen leeftijdsverificatie vereist. Als zodanig zullen kinderen weinig belemmeringen ondervinden bij het gebruik van de site.

Replika moedigt gebruikers aan om deel te nemen aan expliciete gesprekken met volwassenen. Verder worden ze ertoe aangezet een vergoeding te betalen voor de chatbot om onfatsoenlijke foto’s te delen of een ‘romantisch’ videogesprek te faciliteren. Het normaliseren van het betalen voor expliciete inhoud zou een cultuur kunnen bevorderen waarin kinderen het acceptabel vinden om ongepaste afbeeldingen op te vragen, te ontvangen en te verzenden – zowel met de chatbot als onderling.

Illegale contentgeneratie

Uit rapporten blijkt dat kinderen steeds vaker AI-hulpmiddelen gebruiken om onfatsoenlijke beelden van leeftijdsgenoten te genereren, mogelijk gemaakt door gemakkelijk toegankelijke ‘ontkledings’-apps. Onfatsoenlijke afbeeldingen van jongeren onder de 18 jaar zijn illegaal, ongeacht de omstandigheden waarin ze zijn geproduceerd. Dit bevat Materiaal met seksueel misbruik van kinderen (CSAM) geproduceerd met deepfake-technologie.

Hoewel de dynamiek van de productie en distributie van deepfake verschilt van die van andere vormen van op beelden gebaseerd seksueel misbruik, is de schade voor de slachtoffers waarschijnlijk net zo ernstig, zo niet groter.

Wat tieners zeggen over deepfake-technologie

Om de impact van deepfake-technologie gedetailleerder te onderzoeken, hebben we eerder dit jaar een reeks focusgroepen gehouden. De focusgroepen bestonden uit tieners van 15 tot 17 jaar en behandelden het onderwerp online vrouwenhaat. Dit omvatte ook de genderdynamiek die ten grondslag ligt Seksuele intimidatie en misbruik van kind op kind.

De deelnemers bespraken seksueel misbruik met behulp van deepfake-technologie – een onderwerp dat dit jaar meerdere keren de krantenkoppen haalde, zowel in Groot-Brittannië als internationaal. Tieners – met name vrouwelijke deelnemers – deelden over het algemeen de opvatting dat het slachtoffer zijn van deepfake-misbruik in feite schadelijker zou kunnen zijn dan conventionele vormen van het niet-consensueel delen van beelden.

Deelnemers vertelden ons dat de intensiteit van de schade ligt in het gebrek aan keuzevrijheid en controle dat ze zouden voelen bij een deepfake. Dit komt omdat ze geen kennis zouden hebben van of toestemming zouden geven voor de productie ervan:

“Ik denk dat de deepfake misschien nog veel erger zou zijn, omdat je met naakt ook zoiets hebt genomen, dus je weet ervan, terwijl je van de deepfake helemaal geen idee hebt. Er zou er op dit moment letterlijk één kunnen zijn en niemand zou het kunnen weten.” – Meisje, 15-17 jaar oud, focusgroep Internetzaken.

Komend onderzoek naar generatieve AI

De Britse regering heeft besloten geen nieuwe wetgeving inzake AI in te voeren. In plaats daarvan zal het afhankelijk zijn van bestaande wetgevende kaders om de productie en het gebruik van nieuwe AI-technologieën te reguleren.

Het is nog steeds onduidelijk of deze luchtige aanpak individuen – vooral kinderen – voldoende zal beschermen tegen het volledige scala aan risico’s die AI met zich meebrengt, inclusief opkomende schade als gevolg van nieuwe diensten en technologieën.

Het is belangrijk dat er bij de beleidsvorming rond het gebruik van generatieve AI rekening wordt gehouden met de opvattingen en zorgen van jongeren en ouders. Dit geldt met name als het gaat om het gebruik van de technologie in het onderwijs, waar de mogelijke toepassingen de meeste impact kunnen hebben.

We zijn dan ook verheugd om dit aan te kondigen nieuw onderzoek naar de impact van generatieve AI op het onderwijs, gebaseerd op de mening van kinderen en ouders. Het onderzoek zal onderzoeken hoe gezinnen en scholen Gen-AI gebruiken, en de hoop en zorgen van kinderen en ouders voor de toekomst.

Was dit nuttig?
Vertel ons hoe we het kunnen verbeteren

Recente berichten