Internet is belangrijk

Internet Matters reactie op AVMSD

Internet is belangrijk team | 6th oktober, 2020
jongen en meisje op de bank op de ipad

Platforms voor het delen van video's zijn een belangrijk onderdeel van het digitale leven. U kunt onze reactie op de raadpleging van Ofcom over het reguleren van deze platforms hier lezen.

Internet Matters is verheugd om deel te nemen aan dit welkomstgesprek. We hebben een paar inleidende opmerkingen die ons denken kaderen voordat we ingaan op de specifieke vragen. Internet Matters is er om gezinnen te helpen profiteren van verbonden technologie. We hebben geen winstoogmerk en worden gefinancierd door de internetindustrie - en we zijn verheugd om toonaangevende merken samen te brengen om ons te concentreren op de veiligheid van kinderen en digitaal welzijn. We geven deskundig advies aan ouders, gepresenteerd op een echt bruikbare manier, per leeftijd van het kind, per apparaat, app of platform of per probleem.

We weten dat het omgaan met onze inhoud ouders, verzorgers en steeds meer professionals het vertrouwen en de tools geeft die ze nodig hebben om deel te nemen aan het digitale leven van degenen voor wie ze zorgen. Het hebben van een geëngageerde volwassene in het leven van een kind is de allerbelangrijkste factor om ervoor te zorgen dat ze online veilig zijn, dus het is een fundamenteel onderdeel van digitale geletterdheid om die volwassenen de tools, middelen en het vertrouwen te bieden om te handelen.

Regelgevende basis en complexiteit voor ouders

AVMSD vloeit voort uit het EU-recht dat is gebaseerd op het beginsel van het "land van herkomst". In de praktijk betekent dit, zoals in het consultatiedocument staat, dat het tussentijdse regelgevingskader betrekking zal hebben op 6 reguliere sites en 2 sites met inhoud voor volwassenen. Dit zal erg moeilijk uit te leggen zijn aan ouders die terecht kunnen verwachten dat als de inhoud zichtbaar is in het VK, deze in het VK is gereguleerd.

Hoewel de raadpleging de beperkingen van de AVMSD erkent, merkt de raadpleging herhaaldelijk op dat voor zover de aanstaande Online Harms-wetgeving betrekking zal hebben op inhoud die niet geschikt is voor de leeftijd, zij zich niet verplicht zal voelen het oorsprongslandbeginsel in acht te nemen. Dit is een standpunt dat we onderschrijven. Als de inhoud zichtbaar is in het VK, moet deze voldoen aan de Britse regels.

Er is echter een verkeerde afstemming tussen de gestelde doelen van het Online Harms White Paper en de reikwijdte van de AVMSD. Het Witboek spreekt grotendeels over platforms die de publicatie van door gebruikers gegenereerde inhoud mogelijk maken. De AVMSD is op die manier niet beperkt. In dit geval heeft de AVMSD het goed. Het heeft geen zin om de reikwijdte van de wetgeving inzake online schade te beperken tot platforms waarop door gebruikers gegenereerde inhoud kan worden gepubliceerd. Waar het om gaat, is de aard van de inhoud, niet hoe of door wie deze is geproduceerd.

Vraag 19: Welke voorbeelden zijn er van effectief gebruik en implementatie van een van de maatregelen genoemd in artikel 28 (b) (3) de AVMSD 2018? De maatregelen zijn algemene voorwaarden, signalerings- en rapportagemechanismen, leeftijdsverificatiesystemen, beoordelingssystemen, systemen voor ouderlijk toezicht, gemakkelijk toegankelijke klachtenfuncties en het aanbieden van maatregelen en instrumenten voor mediageletterdheid. Geef bewijs en specifieke voorbeelden om uw antwoord te ondersteunen.

Ons werk dat naar gezinnen luistert, vormt de basis voor alles wat we doen - en aangezien we een sleutelrol spelen in het leveren van digitale geletterdheid aan ouders, wilden we wat inzichten met u delen. Ouders vragen advies over online veiligheid wanneer een van de vier dingen gebeurt:

Ouders zoeken meestal hulp via een online zoekopdracht of door hulp te vragen op school. Het is duidelijk dat tijdens de lockdown het zoeken naar oplossingen belangrijker is geweest, wat betekent dat evidence-based advies van geloofwaardige organisaties bovenaan de ranglijst moet staan.

Als ouders eenmaal met advies bezig zijn, moet het gemakkelijk te begrijpen zijn - en daarom vragen we ouders regelmatig wat ze denken dat praten en anders doen nadat ze onze website hebben bezocht. De onderstaande grafieken laten zien dat het aanbieden van inhoud aan ouders die aan hun eisen voldoet, zinvolle en meetbare verandering stimuleert.

Statistieken over betrokkenheid bij internetzaken

Deze datapunten geven aan dat digitale geletterdheid onder ouders kan en wordt beïnvloed door bronnen van goede kwaliteit - die hen in staat stellen routinematige gesprekken met hun kinderen te voeren over hun digitale leven. Bovendien staan ​​onze pagina's over ouderlijk toezicht consequent in de top 10 van meest populaire pagina's.

Vraag 20: Welke voorbeelden zijn er van maatregelen die niet voldoen aan de verwachtingen met betrekking tot de bescherming van gebruikers en waarom? Geef waar mogelijk bewijs om uw antwoord te ondersteunen.


We moeten concluderen dat moderatie van livestreaming momenteel niet werkt en misschien niet kan werken, misbruik van platformvoorwaarden gebeurt in realtime. In de volgende twee voorbeelden zijn het niet alleen de voorwaarden die werden opgegeven, het was veel serieuzer. De tragische recente zelfmoord werd binnen enkele seconden wereldwijd verspreid en hoewel platforms snelle en beslissende actie ondernamen, zagen te veel mensen die aangrijpende inhoud op reguliere apps, met weinig of geen waarschuwing over grafische inhoud. Zoals we allemaal weten, was dit niet het enige voorbeeld van mislukte moderatie van livestreaming, zoals de schietpartijen in Christchurch in maart 2019 benadrukten.

Dit zijn duidelijk complexe problemen waarbij iemand opzettelijk levens wil verwoesten door zijn eigen acties en zijn beslissing om het live te streamen. De twee voorbeelden zijn natuurlijk niet vergelijkbaar, behalve wat we ervan kunnen leren en wat een toezichthouder in deze situaties zinvol zou kunnen doen. Misschien ligt het in de zeer extreme en uitzonderlijke aard van deze inhoud dat troost kan worden gevonden - in bijna alle andere omstandigheden wordt deze inhoud geïdentificeerd en geïsoleerd in de momenten tussen uploaden en delen. Het is duidelijk dat dit beslissingen in een fractie van een seconde zijn die afhankelijk zijn van uitstekende algoritmen en gekwalificeerde menselijke moderators. Misschien is het de rol van de toezichthouder in deze situatie om te werken met platforms waarop dergelijke inhoud kan of is geüpload en bekeken en gedeeld om te begrijpen en te onderzoeken wat er mis is gegaan, en vervolgens concrete maatregelen overeen te komen om ervoor te zorgen dat het niet opnieuw kan gebeuren. Misschien kunnen die lessen door de toezichthouder op een vertrouwelijke manier worden gedeeld met andere platforms, simpelweg om ervoor te zorgen dat er zo veel mogelijk lessen worden getrokken - voor de bescherming van het publiek en waar nodig voor het bedrijf om verhaal te halen. Om dat te kunnen doen, moet de cultuur van de toezichthouder en zijn benadering meer samenwerken en boeiend zijn dan afstandelijk en bestraffend.

Aanbevelingen die de toezichthouder mogelijk wil implementeren, zijn onder meer (maar niet beperkt tot) het verzoeken van bedrijven die plannen hebben opgesteld om samen te werken om ervoor te zorgen dat kennisgevingen onmiddellijk over platforms worden gedeeld - aangezien het geen commercieel voordeel is om deze informatie binnen één platform te houden.

Het andere probleem dat gedetailleerd moet worden overwogen, zijn opmerkingen onder video's - of het nu gaat om peuters in het peuterbad of tieners die lip-synchroniseren met muziekvideo's. Misschien zijn er hier twee afzonderlijke problemen. Voor de accounts van jongeren tussen 13-16 jaar, tenzij en totdat anonimiteit op internet niet langer bestaat, 'moeten platforms worden aangemoedigd om voorzichtig om te gaan met opmerkingen, alles te verwijderen dat wordt gemeld en te herstellen zodra de opmerking is gevalideerd'.

We moedigen de toezichthouder aan om te blijven samenwerken met platforms om video's te identificeren die, hoewel onschuldig van aard, ongepaste opmerkingen aantrekken en de mogelijkheid om openbaar te reageren onder deze video's opschorten.Vaak hebben accounthouders geen idee van wie de opmerkingen worden achtergelaten en de context is alles. Een peer die een dansbeweging of een kledingstuk bewondert, is wezenlijk anders dan opmerkingen van een vreemde.

Zolang sites niet verplicht zijn om de leeftijd van de gebruikers te verifiëren, worden livestreams zowel geüpload als bekeken door kinderen. Kinderen hebben net zoveel recht op opkomende technologie als ieder ander - en moeten deze veilig kunnen gebruiken. De uitdaging voor de toezichthouder wordt dus om ervoor te zorgen dat kinderen die live streamen dit kunnen doen zonder ongepast contact van vreemden.

Hoewel veel jonge mensen ons vertellen dat ze de validatie die ze uit opmerkingen ontvangen, leuk vinden en waarderen, is het niet de oplossing om de functionaliteit te behouden. Het is om het te stoppen en tijd en geld te investeren om te begrijpen wat er in de levens van onze jonge mensen gebeurt, dat de validatie van vreemden zo betekenisvol voor hen is.

Voor ouders die afbeeldingen van peuters in kinderbaden plaatsen, zijn er zowel technische als educatieve antwoorden. Afbeeldingen zouden alleen in de privémodus moeten kunnen worden bekeken, zodat vreemden niet kunnen reageren. Ten tweede zou er een educatief toneelstuk voor ouders moeten zijn - dat waarschijnlijk begint met gesprekken tussen de aanstaande moeder en de vroedvrouw over hoeveel van het kinderleven van hun kind het gepast is om online te posten zodat de wereld het kan zien. De toezichthouder zou een rol kunnen spelen bij het uitdagen van de show-reel-levensstijl die snel de norm is geworden.

Vraag 21: Van welke indicatoren van mogelijke schade moet Ofcom op de hoogte zijn als onderdeel van zijn voortdurende monitoring- en nalevingsactiviteiten voor VSP-diensten? Geef waar mogelijk bewijs om uw antwoord te ondersteunen.


In de afgelopen 18 maanden heeft Internet Matters aanzienlijke hoeveelheden tijd en middelen geïnvesteerd in het begrijpen van de online-ervaring van kwetsbare kinderen - in het bijzonder hoe deze verschilt van hun niet-kwetsbare leeftijdsgenoten. Ons rapport Kwetsbare kinderen in een digitale wereld gepubliceerd in februari 2019 toonden aan dat kwetsbare kinderen een duidelijk andere ervaring online hebben. Verder onderzoek toont aan dat kinderen en jongeren met SEND een bijzonder risico lopen omdat ze minder goed in staat zijn om contactrisico's kritisch te beoordelen en eerder geneigd zijn te geloven dat mensen zijn wie ze zeggen dat ze zijn. Evenzo lopen kinderen meer risico op het zien van schadelijke inhoud, met name rond zelfbeschadiging en zelfmoordinhoud. Er zijn nog veel meer voorbeelden.

Het punt hier is niet dat kwetsbare jongeren een aparte ervaring zouden moeten hebben als ze zich identificeren bij de platforms, maar meer dan de toezichthouder en platforms erkennen dat er miljoenen kwetsbare kinderen in het VK zijn die extra ondersteuning nodig hebben om te profiteren van verbonden technologie. De aard van de ondersteuning zal variëren, maar zal onvermijdelijk aanvullende en op maat gemaakte interventies op het gebied van digitale geletterdheid omvatten, evenals betere inhoudsmoderatie om gevaarlijke inhoud te verwijderen voordat deze wordt gedeeld.

Gegevens uit de Cybersurvey 2019 van Youthworks in samenwerking met Internet Matters geven aan:

Content over zelfbeschadiging wordt 'vaak' gezien door reeds kwetsbare tieners, vooral degenen met een eetstoornis (23%) of spraakproblemen (29%), terwijl slechts 9% van de jongeren zonder kwetsbaarheden het 'ooit' heeft gezien en alleen 2% heeft dat 'vaak' gedaan.

Vraag 22: De AVMSD 2018 vereist dat VSP's passende maatregelen nemen om minderjarigen te beschermen tegen inhoud die 'hun fysieke, mentale of morele ontwikkeling kan schaden'. Welke soorten inhoud acht u hierbij relevant? Welke maatregelen acht u het meest geschikt om minderjarigen te beschermen? Geef waar mogelijk bewijs om uw antwoord te ondersteunen, inclusief eventuele leeftijdsgerelateerde overwegingen.

Naast de inhoud over zelfbeschadiging en zelfmoord die wordt beschreven in ons antwoord op vraag 21, zijn er verschillende andere soorten inhoud die de fysieke, mentale of morele ontwikkeling van kinderen kunnen schaden, waaronder (en niet beperkt tot)

Misschien kunt u hier rekening mee houden door de inhoudscategorieën te herzien en bij te werken die de internetproviders gebruiken om inhoud te blokkeren via de filters voor ouderlijk toezicht. Alle door gebruikers gegenereerde inhoud moet aan dezelfde beperkingen voor kinderen worden onderworpen. Wat belangrijk is voor de gezondheid en het welzijn van kinderen, is de inhoud zelf, niet of de inhoud is gemaakt door een reguliere omroep of iemand verderop.

Welke maatregelen zijn het meest geschikt om minderjarigen te beschermen?

Dit is dringend omdat uit onze gegevens blijkt dat de ervaringen met online schade zijn toegenomen tijdens lockdown.

Online schadestatistieken

Vraag 23: Met welke uitdagingen kunnen VSP-providers worden geconfronteerd bij de praktische en evenredige goedkeuring van maatregelen waarvan Ofcom op de hoogte moet zijn? We zouden met name geïnteresseerd zijn in uw redenering van de factoren die relevant zijn voor de beoordeling van uitvoerbaarheid en evenredigheid.


Het kan handig zijn om hier een onderscheid te maken tussen illegale inhoud, waar zeer duidelijke eisen gelden en legale maar schadelijke inhoud, waar een wereld van verwarring heerst.
Dit is een ernstig en complex probleem dat veel werk tussen de platforms en de toezichthouder vereist om op te lossen. Aangezien de regering van plan is Ofcom te benoemen als de Online Harms Regulator, zal er evenveel belangstelling zijn voor hoe dit wordt gedaan als hoe het wordt gedaan. We zullen precedenten stellen en verwachtingen scheppen.

Vraag 24: Hoe moeten VSP's een evenwicht vinden tussen de rechten van hun gebruikers op vrijheid van meningsuiting en welke maatstaven moeten ze gebruiken om dit te controleren? Welke rol zie je voor een toezichthouder?

Vraag 25: Hoe moeten VSP's voorzien in een buitengerechtelijk verhaalmechanisme voor de onpartijdige beslechting van geschillen tussen gebruikers en VSP-providers? (zie paragraaf 2.32 en artikel 28 (b) (7) in bijlage 5). Verstrek waar mogelijk bewijs of analyse om uw antwoord te ondersteunen, inclusief een overweging hoe op een effectieve en evenredige manier aan deze vereiste kan worden voldaan.

Internet Matters heeft geen commentaar op deze vraag

Vraag 26: Hoe kan Ofcom VSP's het beste ondersteunen om te blijven innoveren om gebruikers veilig te houden?

Vraag 27: Hoe kan Ofcom bedrijven het beste ondersteunen om aan de nieuwe vereisten te voldoen?

Vraag 28: Heeft u een mening over de reeks beginselen die zijn uiteengezet in paragraaf 2.49 (bescherming en zekerheid, vrijheid van meningsuiting, aanpassingsvermogen in de tijd, transparantie, robuuste handhaving, onafhankelijkheid en evenredigheid) en het balanceren van de spanningen die soms kunnen optreden tussen hen?

Ondersteunende middelen

Over de auteur

Internet is belangrijk team

Internet is belangrijk team

Internet Matters ondersteunt ouders en professionals met uitgebreide middelen en deskundige begeleiding om hen te helpen navigeren in de steeds veranderende wereld van internetveiligheid voor kinderen.

Ontvang persoonlijk advies en voortdurende ondersteuning

De eerste stap om de online veiligheid van uw kind te waarborgen, is het krijgen van de juiste begeleiding. We hebben het gemakkelijk gemaakt met 'My Family's Digital Toolkit.'