MENU

Internet Matters reactie op AVMSD

jongen en meisje op de bank op de ipad

Platforms voor het delen van video's zijn een belangrijk onderdeel van het digitale leven. U kunt onze reactie op de raadpleging van Ofcom over het reguleren van deze platforms hier lezen.

Internet Matters is verheugd om deel te nemen aan dit welkomstgesprek. We hebben een paar inleidende opmerkingen die ons denken kaderen voordat we ingaan op de specifieke vragen. Internet Matters is er om gezinnen te helpen profiteren van verbonden technologie. We hebben geen winstoogmerk en worden gefinancierd door de internetindustrie - en we zijn verheugd om toonaangevende merken samen te brengen om ons te concentreren op de veiligheid van kinderen en digitaal welzijn. We geven deskundig advies aan ouders, gepresenteerd op een echt bruikbare manier, per leeftijd van het kind, per apparaat, app of platform of per probleem.

We weten dat het omgaan met onze inhoud ouders, verzorgers en steeds meer professionals het vertrouwen en de tools geeft die ze nodig hebben om deel te nemen aan het digitale leven van degenen voor wie ze zorgen. Het hebben van een geëngageerde volwassene in het leven van een kind is de allerbelangrijkste factor om ervoor te zorgen dat ze online veilig zijn, dus het is een fundamenteel onderdeel van digitale geletterdheid om die volwassenen de tools, middelen en het vertrouwen te bieden om te handelen.

Regelgevende basis en complexiteit voor ouders

AVMSD vloeit voort uit het EU-recht dat is gebaseerd op het beginsel van het "land van herkomst". In de praktijk betekent dit, zoals in het consultatiedocument staat, dat het tussentijdse regelgevingskader betrekking zal hebben op 6 reguliere sites en 2 sites met inhoud voor volwassenen. Dit zal erg moeilijk uit te leggen zijn aan ouders die terecht kunnen verwachten dat als de inhoud zichtbaar is in het VK, deze in het VK is gereguleerd.

Hoewel de raadpleging de beperkingen van de AVMSD erkent, merkt de raadpleging herhaaldelijk op dat voor zover de aanstaande Online Harms-wetgeving betrekking zal hebben op inhoud die niet geschikt is voor de leeftijd, zij zich niet verplicht zal voelen het oorsprongslandbeginsel in acht te nemen. Dit is een standpunt dat we onderschrijven. Als de inhoud zichtbaar is in het VK, moet deze voldoen aan de Britse regels.

Er is echter een verkeerde afstemming tussen de gestelde doelen van het Online Harms White Paper en de reikwijdte van de AVMSD. Het Witboek spreekt grotendeels over platforms die de publicatie van door gebruikers gegenereerde inhoud mogelijk maken. De AVMSD is op die manier niet beperkt. In dit geval heeft de AVMSD het goed. Het heeft geen zin om de reikwijdte van de wetgeving inzake online schade te beperken tot platforms waarop door gebruikers gegenereerde inhoud kan worden gepubliceerd. Waar het om gaat, is de aard van de inhoud, niet hoe of door wie deze is geproduceerd.

Vraag 19: Welke voorbeelden zijn er van effectief gebruik en implementatie van een van de maatregelen genoemd in artikel 28 (b) (3) de AVMSD 2018? De maatregelen zijn algemene voorwaarden, signalerings- en rapportagemechanismen, leeftijdsverificatiesystemen, beoordelingssystemen, systemen voor ouderlijk toezicht, gemakkelijk toegankelijke klachtenfuncties en het aanbieden van maatregelen en instrumenten voor mediageletterdheid. Geef bewijs en specifieke voorbeelden om uw antwoord te ondersteunen.
Ons werk dat naar gezinnen luistert, vormt de basis voor alles wat we doen - en aangezien we een sleutelrol spelen in het leveren van digitale geletterdheid aan ouders, wilden we wat inzichten met u delen. Ouders vragen advies over online veiligheid wanneer een van de vier dingen gebeurt:

  • Er is een nieuw apparaat in huis
  • Er is een nieuwe app / platform op het apparaat
  • Kinderen gaan naar de middelbare school
  • Er is een veiligheidsrisico dat kan worden veroorzaakt door een aantal redenen, niet in de laatste plaats door geleefde ervaringen, aanwijzingen van school, mediaverhalen enz.

Ouders zoeken meestal hulp via een online zoekopdracht of door hulp te vragen op school. Het is duidelijk dat tijdens de lockdown het zoeken naar oplossingen belangrijker is geweest, wat betekent dat evidence-based advies van geloofwaardige organisaties bovenaan de ranglijst moet staan.

Als ouders eenmaal met advies bezig zijn, moet het gemakkelijk te begrijpen zijn - en daarom vragen we ouders regelmatig wat ze denken dat praten en anders doen nadat ze onze website hebben bezocht. De onderstaande grafieken laten zien dat het aanbieden van inhoud aan ouders die aan hun eisen voldoet, zinvolle en meetbare verandering stimuleert.

Deze datapunten geven aan dat digitale geletterdheid onder ouders kan en wordt beïnvloed door bronnen van goede kwaliteit - die hen in staat stellen routinematige gesprekken met hun kinderen te voeren over hun digitale leven. Bovendien staan ​​onze pagina's over ouderlijk toezicht consequent in de top 10 van meest populaire pagina's.

Vraag 20: Welke voorbeelden zijn er van maatregelen die niet voldoen aan de verwachtingen met betrekking tot de bescherming van gebruikers en waarom? Geef waar mogelijk bewijs om uw antwoord te ondersteunen.
We moeten concluderen dat moderatie van livestreaming momenteel niet werkt en misschien niet kan werken, misbruik van platformvoorwaarden gebeurt in realtime. In de volgende twee voorbeelden zijn het niet alleen de voorwaarden die werden opgegeven, het was veel serieuzer. De tragische recente zelfmoord werd binnen enkele seconden wereldwijd verspreid en hoewel platforms snelle en beslissende actie ondernamen, zagen te veel mensen die aangrijpende inhoud op reguliere apps, met weinig of geen waarschuwing over grafische inhoud. Zoals we allemaal weten, was dit niet het enige voorbeeld van mislukte moderatie van livestreaming, zoals de schietpartijen in Christchurch in maart 2019 benadrukten.

Dit zijn duidelijk complexe problemen waarbij iemand opzettelijk levens wil verwoesten door zijn eigen acties en zijn beslissing om het live te streamen. De twee voorbeelden zijn natuurlijk niet vergelijkbaar, behalve wat we ervan kunnen leren en wat een toezichthouder in deze situaties zinvol zou kunnen doen. Misschien ligt het in de zeer extreme en uitzonderlijke aard van deze inhoud dat troost kan worden gevonden - in bijna alle andere omstandigheden wordt deze inhoud geïdentificeerd en geïsoleerd in de momenten tussen uploaden en delen. Het is duidelijk dat dit beslissingen in een fractie van een seconde zijn die afhankelijk zijn van uitstekende algoritmen en gekwalificeerde menselijke moderators. Misschien is het de rol van de toezichthouder in deze situatie om te werken met platforms waarop dergelijke inhoud kan of is geüpload en bekeken en gedeeld om te begrijpen en te onderzoeken wat er mis is gegaan, en vervolgens concrete maatregelen overeen te komen om ervoor te zorgen dat het niet opnieuw kan gebeuren. Misschien kunnen die lessen door de toezichthouder op een vertrouwelijke manier worden gedeeld met andere platforms, simpelweg om ervoor te zorgen dat er zo veel mogelijk lessen worden getrokken - voor de bescherming van het publiek en waar nodig voor het bedrijf om verhaal te halen. Om dat te kunnen doen, moet de cultuur van de toezichthouder en zijn benadering meer samenwerken en boeiend zijn dan afstandelijk en bestraffend.

Aanbevelingen die de toezichthouder mogelijk wil implementeren, zijn onder meer (maar niet beperkt tot) het verzoeken van bedrijven die plannen hebben opgesteld om samen te werken om ervoor te zorgen dat kennisgevingen onmiddellijk over platforms worden gedeeld - aangezien het geen commercieel voordeel is om deze informatie binnen één platform te houden.

Het andere probleem dat gedetailleerd moet worden overwogen, zijn opmerkingen onder video's - of het nu gaat om peuters in het peuterbad of tieners die lip-synchroniseren met muziekvideo's. Misschien zijn er hier twee afzonderlijke problemen. Voor de accounts van jongeren tussen 13-16 jaar, tenzij en totdat anonimiteit op internet niet langer bestaat, 'moeten platforms worden aangemoedigd om voorzichtig om te gaan met opmerkingen, alles te verwijderen dat wordt gemeld en te herstellen zodra de opmerking is gevalideerd'.

We moedigen de toezichthouder aan om te blijven samenwerken met platforms om video's te identificeren die, hoewel onschuldig van aard, ongepaste opmerkingen aantrekken en de mogelijkheid om openbaar te reageren onder deze video's opschorten.Vaak hebben accounthouders geen idee van wie de opmerkingen worden achtergelaten en de context is alles. Een peer die een dansbeweging of een kledingstuk bewondert, is wezenlijk anders dan opmerkingen van een vreemde.

Zolang sites niet verplicht zijn om de leeftijd van de gebruikers te verifiëren, worden livestreams zowel geüpload als bekeken door kinderen. Kinderen hebben net zoveel recht op opkomende technologie als ieder ander - en moeten deze veilig kunnen gebruiken. De uitdaging voor de toezichthouder wordt dus om ervoor te zorgen dat kinderen die live streamen dit kunnen doen zonder ongepast contact van vreemden.

Hoewel veel jonge mensen ons vertellen dat ze de validatie die ze uit opmerkingen ontvangen, leuk vinden en waarderen, is het niet de oplossing om de functionaliteit te behouden. Het is om het te stoppen en tijd en geld te investeren om te begrijpen wat er in de levens van onze jonge mensen gebeurt, dat de validatie van vreemden zo betekenisvol voor hen is.

Voor ouders die afbeeldingen van peuters in kinderbaden plaatsen, zijn er zowel technische als educatieve antwoorden. Afbeeldingen zouden alleen in de privémodus moeten kunnen worden bekeken, zodat vreemden niet kunnen reageren. Ten tweede zou er een educatief toneelstuk voor ouders moeten zijn - dat waarschijnlijk begint met gesprekken tussen de aanstaande moeder en de vroedvrouw over hoeveel van het kinderleven van hun kind het gepast is om online te posten zodat de wereld het kan zien. De toezichthouder zou een rol kunnen spelen bij het uitdagen van de show-reel-levensstijl die snel de norm is geworden.

Vraag 21: Van welke indicatoren van mogelijke schade moet Ofcom op de hoogte zijn als onderdeel van zijn voortdurende monitoring- en nalevingsactiviteiten voor VSP-diensten? Geef waar mogelijk bewijs om uw antwoord te ondersteunen.
In de afgelopen 18 maanden heeft Internet Matters aanzienlijke hoeveelheden tijd en middelen geïnvesteerd in het begrijpen van de online-ervaring van kwetsbare kinderen - in het bijzonder hoe deze verschilt van hun niet-kwetsbare leeftijdsgenoten. Ons rapport Kwetsbare kinderen in een digitale wereld gepubliceerd in februari 2019 toonden aan dat kwetsbare kinderen een duidelijk andere ervaring online hebben. Verder onderzoek toont aan dat kinderen en jongeren met SEND een bijzonder risico lopen omdat ze minder goed in staat zijn om contactrisico's kritisch te beoordelen en eerder geneigd zijn te geloven dat mensen zijn wie ze zeggen dat ze zijn. Evenzo lopen kinderen meer risico op het zien van schadelijke inhoud, met name rond zelfbeschadiging en zelfmoordinhoud. Er zijn nog veel meer voorbeelden.

Het punt hier is niet dat kwetsbare jongeren een aparte ervaring zouden moeten hebben als ze zich identificeren bij de platforms, maar meer dan de toezichthouder en platforms erkennen dat er miljoenen kwetsbare kinderen in het VK zijn die extra ondersteuning nodig hebben om te profiteren van verbonden technologie. De aard van de ondersteuning zal variëren, maar zal onvermijdelijk aanvullende en op maat gemaakte interventies op het gebied van digitale geletterdheid omvatten, evenals betere inhoudsmoderatie om gevaarlijke inhoud te verwijderen voordat deze wordt gedeeld.

Gegevens uit de Cybersurvey 2019 van Youthworks in samenwerking met Internet Matters geven aan:

  • Jongeren worden steeds meer blootgesteld aan schadelijke inhoud die over zelfmoord of zelfbeschadiging praat. In 2019 had een kwart van de tienerrespondenten ooit content gezien die over zelfmoord sprak en 13% had content gezien over zelfbeschadiging. In 2015 had 11% ooit content gezien die tot zelfbeschadiging of zelfmoord aanmoedigde
  • Het percentage dat persoonlijk online te maken heeft gehad met racistisch pesten of agressie is in 2019 hoger dan in 2015; 13% vergeleken met 4%
  • Het percentage dat persoonlijk te maken heeft gehad met homofoob pesten of agressie online in 2019 is bijna vier keer zo hoog als in 2015; 15% vergeleken met 4%
  • Contentrisico wordt vaker ervaren dan contactrisico:
    • Pro-anorexia-inhoud, die we in verschillende eerdere Cybersurvey-rapporten hebben gemarkeerd, wordt dit jaar vergezeld door inhoud die tieners aanmoedigt om 'je lichaam op te bouwen'. Dit wordt algemeen gezien, vooral door jongens. (Hoewel de conditie positief is, kan opzwellen schadelijk zijn als, om dit te bereiken, een jongere wordt aangemoedigd om stoffen te gebruiken die mogelijk niet zo zijn geëtiketteerd)

Content over zelfbeschadiging wordt 'vaak' gezien door reeds kwetsbare tieners, vooral degenen met een eetstoornis (23%) of spraakproblemen (29%), terwijl slechts 9% van de jongeren zonder kwetsbaarheden het 'ooit' heeft gezien en alleen 2% heeft dat 'vaak' gedaan.

Vraag 22: De AVMSD 2018 vereist dat VSP's passende maatregelen nemen om minderjarigen te beschermen tegen inhoud die 'hun fysieke, mentale of morele ontwikkeling kan schaden'. Welke soorten inhoud acht u hierbij relevant? Welke maatregelen acht u het meest geschikt om minderjarigen te beschermen? Geef waar mogelijk bewijs om uw antwoord te ondersteunen, inclusief eventuele leeftijdsgerelateerde overwegingen.

Naast de inhoud over zelfbeschadiging en zelfmoord die wordt beschreven in ons antwoord op vraag 21, zijn er verschillende andere soorten inhoud die de fysieke, mentale of morele ontwikkeling van kinderen kunnen schaden, waaronder (en niet beperkt tot)

  • Pornografie en alle andere volwassen en geseksualiseerde inhoud rondom pornografie. Dit omvat ook de impact die deze inhoud heeft op de perceptie van kinderen van gezonde relaties, toestemming en de rol van vrouwen. Ons rapport - We moeten praten over pornografie beschrijft deze kwesties in de context van ouderlijke ondersteuning voor leeftijdsverificatie
  • Geweld - de normalisatie van geweld en de implicaties van inhoud rond bepaalde soorten muziek en bendecultuur kan zeer schadelijk zijn
  • Criminele activiteiten - van het gebruik van VSP om minderjarigen te rekruteren voor provinciale lijnen en de verheerlijking van glamoureuze levensstijlen, er is een reeks schadelijke inhoud die criminaliteit aanmoedigt
  • Gokken, roken en alcohol, messen - kinderen mogen niet online gokken - het is offline illegaal en moet zowel illegaal als online onmogelijk zijn. Evenzo zijn er leeftijdsbeperkingen voor de verkoop van beperkte artikelen; tabak, alcohol en wapens en dit zou moeten betekenen dat het voor kinderen onmogelijk is om deze inhoud te beoordelen in de vorm van een advertentie die deze inhoud betovert of de mogelijkheid krijgt om deze te kopen
  • Ideologie / Radicalisering / Extremisme - Hoewel we de vrijheid van meningsuiting niet willen beperken, verdienen kinderen en jongeren speciale bescherming, zodat ze niet onderhevig zijn aan radicale en extreme ideologieën en inhoud

Misschien kunt u hier rekening mee houden door de inhoudscategorieën te herzien en bij te werken die de internetproviders gebruiken om inhoud te blokkeren via de filters voor ouderlijk toezicht. Alle door gebruikers gegenereerde inhoud moet aan dezelfde beperkingen voor kinderen worden onderworpen. Wat belangrijk is voor de gezondheid en het welzijn van kinderen, is de inhoud zelf, niet of de inhoud is gemaakt door een reguliere omroep of iemand verderop.

Welke maatregelen zijn het meest geschikt om minderjarigen te beschermen?

  • Beperkt, sommige inhoud mag niet aan sommige doelgroepen worden aangeboden
  • Meer gebruik van waarschuwingen op het startscherm om legale maar schadelijke inhoud te identificeren
  • Meer draconische acties tegen gebruikers die inhoud creëren die de algemene voorwaarden van platforms schendt
  • Leeftijdsverificatie voor inhoud voor volwassenen en leeftijdsborging voor gebruikers van 13-16 jaar

Dit is dringend omdat uit onze gegevens blijkt dat de ervaringen met online schade zijn toegenomen tijdens lockdown.

Vraag 23: Met welke uitdagingen kunnen VSP-providers worden geconfronteerd bij de praktische en evenredige goedkeuring van maatregelen waarvan Ofcom op de hoogte moet zijn? We zouden met name geïnteresseerd zijn in uw redenering van de factoren die relevant zijn voor de beoordeling van uitvoerbaarheid en evenredigheid.
Het kan handig zijn om hier een onderscheid te maken tussen illegale inhoud, waar zeer duidelijke eisen gelden en legale maar schadelijke inhoud, waar een wereld van verwarring heerst.
Dit is een ernstig en complex probleem dat veel werk tussen de platforms en de toezichthouder vereist om op te lossen. Aangezien de regering van plan is Ofcom te benoemen als de Online Harms Regulator, zal er evenveel belangstelling zijn voor hoe dit wordt gedaan als hoe het wordt gedaan. We zullen precedenten stellen en verwachtingen scheppen.

Vraag 24: Hoe moeten VSP's een evenwicht vinden tussen de rechten van hun gebruikers op vrijheid van meningsuiting en welke maatstaven moeten ze gebruiken om dit te controleren? Welke rol zie je voor een toezichthouder?

  • Duidelijkheid over gemeenschapsrichtlijnen over wat wel en niet gepast is en wat acceptabel / getolereerd is. Misbruik het en je bent vertrokken. De vrijheid van meningsuiting wordt niet beperkt omdat u een ander platform zou kunnen vinden om die opvattingen te uiten, maar op dit punt zijn ze niet acceptabel
  • Statistieken - prevalentie, verwijderingen en rapportage
  • De rol van regulator is ervoor te zorgen dat gemeenschapsnormen worden gehandhaafd, erkennen dat zoals bij alle regels mensen ze zullen pushen en omzeilen, dus een element van menselijke matiging en gezond verstand vereist ook
  • De toezichthouder moet erkennen dat onderwijs hier ook een belangrijk onderdeel van is, dus VSP's die investeren in onafhankelijke onderwijsprogramma's die digitale geletterdheid versterken, moeten worden aangemoedigd / positief worden bekeken / een heffingskorting krijgen

Vraag 25: Hoe moeten VSP's voorzien in een buitengerechtelijk verhaalmechanisme voor de onpartijdige beslechting van geschillen tussen gebruikers en VSP-providers? (zie paragraaf 2.32 en artikel 28 (b) (7) in bijlage 5). Verstrek waar mogelijk bewijs of analyse om uw antwoord te ondersteunen, inclusief een overweging hoe op een effectieve en evenredige manier aan deze vereiste kan worden voldaan.

Internet Matters heeft geen commentaar op deze vraag

Vraag 26: Hoe kan Ofcom VSP's het beste ondersteunen om te blijven innoveren om gebruikers veilig te houden?

  • Herken app-investeringen en interventies in media / digitale geletterdheid die impact kunnen aantonen door middel van robuuste evaluatie
  • Zorg ervoor dat ze erkennen dat naleving meer is dan het verwijderen van inhoud - zoals in het Ierse model, moet het maatregelen omvatten om de verspreiding en versterking van schadelijke inhoud te minimaliseren
  • Wees duidelijk over de bedoeling van de vereisten - waar, opnieuw volgens het Ierse model, er een cyclus van schadebeperking is waarbij het aantal mensen dat wordt blootgesteld aan schadelijke inhoud in de loop van de tijd aanzienlijk wordt verminderd als een direct gevolg van de genomen maatregelen
  • Maak het rapporteren van betreffende inhoud net zo eenvoudig als het uploaden van inhoud en houd verslaggevers op de hoogte van processen en waarschijnlijke tijdschema's voor oplossingen. Dit moet duidelijk gepubliceerde responstijden omvatten die voldoen aan een minimumstandaard en gebruikers op de hoogte houden. Bovendien vermoeden we dat een deel van de bewoordingen rond het rapporteren van inhoud onaangenaam is voor kinderen, dus stel voor dat er wat werk wordt gedaan om de meest geschikte bewoording en het meest geschikte proces voor jongeren te identificeren, zodat ze deze inhoud eerder zullen markeren. Bovendien moeten de platforms een aanhoudende inspanning leveren om het vertrouwen in hun rapportagemechanismen te herstellen, zodat gebruikers van alle leeftijden geloven dat er iets zal gebeuren als ze een melding doen.
  • Maak rapportage gemakkelijk voor minderjarigen - dus test met hen wat de meest geschikte manier is om dat door het platform te doen. Is complexe, specifieke taal het beste voor jonge mensen, of zou zachtere taal, zoals 'ik vind dit niet leuk' of 'deze inhoud maakt me ongelukkig', effectiever zijn? Geef daarnaast prioriteit aan hun zorgen en probeer misschien uit wat er gebeurt als rapporten van minderjarigen worden verwijderd en vervolgens worden onderzocht en indien nodig opnieuw worden ingevoerd. Als we het internet echt een veilige plek voor kinderen wilden maken, zouden we ons concentreren op hun behoeften - op de platforms die ze waarschijnlijk vaak zullen bezoeken

Vraag 27: Hoe kan Ofcom bedrijven het beste ondersteunen om aan de nieuwe vereisten te voldoen?

  • Herken de beperkingen in de reikwijdte en timing van de vereisten - en breng ze dienovereenkomstig op de hoogte. Als de voorschriften alleen van toepassing zijn op 6 of 8 organisaties, claim dan niet te veel - ze zullen niet wereldleider zijn. Dit is belangrijk zodat ouders realistisch zijn over welke veranderingen de vereisten zullen teweegbrengen en niet minder waakzaam zullen worden omdat ze geloven dat er een gereguleerde oplossing is
  • Erken dat grootte geen voorwaarde is voor het bestaan ​​van risico's en schade, en dat bedrijven in elk ander domein van consumentenproducten geen minder veilige of riskantere producten op de markt kunnen brengen omdat ze klein zijn. Microbrouwerijen hebben dezelfde wettelijke verplichting om te voldoen aan alle toepasselijke gezondheids- en veiligheidsvoorschriften als Coca-Cola. Hetzelfde geldt voor speelgoedfabrikanten en filmproducenten. Het recht om veilig te zijn, of in dit geval niet geschaad, is absoluut en niet afhankelijk van de grootte van de organisatie waarvan u een product of dienst afneemt

Vraag 28: Heeft u een mening over de reeks beginselen die zijn uiteengezet in paragraaf 2.49 (bescherming en zekerheid, vrijheid van meningsuiting, aanpassingsvermogen in de tijd, transparantie, robuuste handhaving, onafhankelijkheid en evenredigheid) en het balanceren van de spanningen die soms kunnen optreden tussen hen?

  • Ierse voorstellen erkennen dat dit een zich herhalend proces is, dus verwelkom sentimenten als deze behendig en innovatief zijn. De focus van regelgeving in overeenstemming met codes, in plaats van persoonlijk gedrag - maar er is nog steeds een plek nodig om te onderwijzen zodat gedrag wordt aangepakt. De huidige raadpleging van de Law Commission over onlinemisdrijven is hier ook een interessante interventie, aangezien dergelijke wetswijzigingen juridische en dus culturele duidelijkheid zullen scheppen over wat acceptabel en legaal online gedrag is
  • Zorgen over vrijheid van meningsuiting en meningsuiting kunnen worden aangepakt door middel van algemene voorwaarden - er kan dus een plek zijn waar uw extreme opvattingen welkom zijn - maar dit is daarvoor niet het geschikte platform. Niet suggererend dat je die opvattingen niet kunt uiten, maar simpelweg beweren dat je dat niet op dit platform kunt doen
  • Erkenning van de uitdagingen van leeftijdsverificatie voor minderjarigen en foutenmarges bij leeftijdsverzekering en de onvermijdelijke beperkingen van die technologieën

Meer te ontdekken

Bekijk meer artikelen en bronnen om kinderen te helpen online veilig te blijven.