MENU

Internet Matters risposta a AVMSD

ragazzo e ragazza sul divano su ipad

Le piattaforme di condivisione video sono una parte fondamentale della vita digitale. Puoi leggere la nostra risposta alla consultazione di Ofcom su come regolare queste piattaforme qui.

Internet Matters è lieta di partecipare a questa gradita consultazione. Abbiamo alcuni commenti introduttivi che inquadrano il nostro pensiero prima di entrare nelle domande specifiche. Internet Matters esiste per aiutare le famiglie a trarre vantaggio dalla tecnologia connessa. Siamo un'organizzazione no profit, finanziata dall'industria di Internet, e siamo lieti di riunire marchi leader per concentrarci sulla sicurezza dei bambini e sul benessere digitale. Forniamo consulenza esperta ai genitori, presentata in modo realmente utilizzabile, per età del bambino, per dispositivo, app o piattaforma o per problema.

Sappiamo che il coinvolgimento con i nostri contenuti offre a genitori, tutori e sempre più professionisti la fiducia e gli strumenti di cui hanno bisogno per interagire con la vita digitale di coloro di cui si prendono cura. Avere un adulto impegnato nella vita di un bambino è il fattore più importante per garantire che sia al sicuro online, quindi fornire a quegli adulti gli strumenti, le risorse e la fiducia per agire è una parte fondamentale dell'alfabetizzazione digitale.

Base normativa e complessità per i genitori

L'AVMSD deriva dal corpo legislativo dell'UE che si basa sul principio del "paese di origine". In pratica, ciò significa che, come afferma il documento di consultazione, il quadro normativo provvisorio coprirà 6 siti tradizionali e 2 siti con contenuti per adulti. Questo si rivelerà molto difficile da spiegare ai genitori che potrebbero giustamente aspettarsi che se il contenuto è visualizzabile nel Regno Unito, è regolamentato nel Regno Unito.

Pur riconoscendo i limiti dell'AVMSD, la consultazione rileva ripetutamente che nella misura in cui la futura legislazione sui danni in linea affronterà contenuti inappropriati per età, non si sentirà obbligata a rispettare il principio del paese di origine. Questa è una posizione che sosteniamo. Se il contenuto è visualizzabile nel Regno Unito, deve essere conforme alle regole del Regno Unito.

Tuttavia, esiste un disallineamento tra gli obiettivi dichiarati del Libro bianco sui danni in linea e l'ambito dell'AVMSD. Il Libro bianco parla ampiamente di piattaforme che consentono la pubblicazione di contenuti generati dagli utenti. L'AVMSD non è limitato in questo modo. In questo caso l'AVMSD ha ragione. Non ha senso limitare l'ambito di applicazione della legislazione sui danni in linea alle piattaforme che consentono la pubblicazione di contenuti generati dagli utenti. Ciò che conta è la natura del contenuto, non come o da chi è stato prodotto.

Domanda 19: Quali sono gli esempi di utilizzo e attuazione efficaci di una qualsiasi delle misure elencate nell'articolo 28 (b) (3) dell'AVMSD 2018? Le misure sono termini e condizioni, meccanismi di segnalazione e segnalazione, sistemi di verifica dell'età, sistemi di classificazione, sistemi di controllo parentale, funzioni di reclamo di facile accesso e fornitura di misure e strumenti di alfabetizzazione mediatica. Fornisci prove ed esempi specifici a sostegno della tua risposta.
Il nostro lavoro di ascolto delle famiglie informa tutto ciò che facciamo e, dato che siamo una parte fondamentale della fornitura di alfabetizzazione digitale per i genitori, volevamo condividere alcune informazioni con voi. I genitori chiedono consiglio sulla sicurezza online quando accade una delle quattro cose:

  • C'è un nuovo dispositivo a casa
  • C'è una nuova app / piattaforma sul dispositivo
  • I bambini iniziano la scuola secondaria
  • Esiste una preoccupazione per la sicurezza che può essere motivata da un numero qualsiasi di ragioni, non ultima l'esperienza vissuta, i suggerimenti della scuola, le storie dei media ecc.

I genitori cercano aiuto più spesso tramite una ricerca online o chiedendo aiuto a scuola. Chiaramente durante il blocco, la ricerca di soluzioni è stata più importante, il che significa che i consigli basati sull'evidenza di organizzazioni credibili devono essere in cima alla classifica.

Una volta che i genitori si sono impegnati con il consiglio, deve essere facile da capire, quindi intervistiamo regolarmente i genitori su ciò che penserebbero parlare e fare in modo diverso dopo aver interagito con il nostro sito web. I grafici seguenti dimostrano che offrire ai genitori contenuti che soddisfano le loro esigenze determina un cambiamento significativo e misurabile.

Questi dati indicano che l'alfabetizzazione digitale tra i genitori può ed è influenzata da risorse di buona qualità, che consentono loro di avere conversazioni di routine con i loro figli sulla loro vita digitale. Inoltre, le nostre pagine sul controllo genitori si classificano costantemente tra le prime 10 pagine più popolari.

Domanda 20: Quali sono gli esempi di misure che hanno deluso le aspettative in merito alla protezione degli utenti e perché? Si prega di fornire prove a sostegno della risposta ove possibile.
Dobbiamo concludere che la moderazione del live streaming non funziona attualmente e forse non può funzionare, l'abuso dei termini e delle condizioni delle piattaforme avviene in tempo reale. Nei seguenti due esempi non sono stati semplicemente abbandonati i termini e le condizioni, era molto più serio. Il tragico recente suicidio è stato diffuso a livello globale in pochi secondi e sebbene le piattaforme abbiano intrapreso un'azione rapida e decisiva, troppe persone hanno visto quel contenuto straziante sulle app tradizionali, con poco o nessun preavviso per quanto riguarda i contenuti grafici. Come tutti sappiamo, questo non è stato l'unico esempio di fallimento della moderazione del live streaming, come hanno evidenziato le sparatorie di Christchurch nel marzo 2019.

Chiaramente, si tratta di questioni complesse in cui qualcuno decide deliberatamente di devastare la vita attraverso le proprie azioni e la decisione di trasmetterle in streaming. Naturalmente, i due esempi non sono confrontabili, tranne per ciò che possiamo apprendere da essi e per ciò che un regolatore potrebbe fare in modo significativo in queste situazioni. Forse è nella natura estrema ed eccezionale di questo contenuto che si può trovare conforto, in quanto in quasi tutte le altre circostanze questo contenuto viene identificato e isolato nei momenti tra il caricamento e la condivisione. Chiaramente, queste sono decisioni in frazioni di secondo che dipendono da algoritmi eccezionali e moderatori umani qualificati. Forse il ruolo del regolatore in questa situazione è quello di lavorare con piattaforme su cui tali contenuti possono essere o sono stati caricati, visualizzati e condivisi per capire ed esplorare cosa è andato storto e quindi concordare azioni concrete per garantire che non possa ripetersi. Forse tali apprendimenti potrebbero essere condivisi dall'autorità di regolamentazione in modo confidenziale con altre piattaforme, semplicemente allo scopo di garantire che le lezioni vengano apprese il più ampiamente possibile - per la protezione del pubblico e, ove appropriato, per la società per fornire risarcimento. Per questo, per funzionare, la cultura del regolatore e il suo approccio devono essere collaborativi e coinvolgenti piuttosto che remoti e punitivi.

Le raccomandazioni che il regolatore potrebbe voler implementare potrebbero includere (ma non essere limitate a) la richiesta che le aziende abbiano stabilito piani per lavorare insieme per garantire che le notifiche siano condivise immediatamente tra le piattaforme, poiché non vi è alcun vantaggio commerciale nel mantenere queste informazioni all'interno di una piattaforma.

L'altro problema che richiede una considerazione dettagliata sono i commenti sotto i video: i bambini piccoli nella piscina per bambini o gli adolescenti che si sincronizzano con le labbra sui video musicali. Forse ci sono due questioni separate qui. Per gli account dei giovani tra i 13 ei 16 anni, a meno che e fino a quando l'anonimato su Internet non esista più, "le piattaforme dovrebbero essere incoraggiate ad adottare un approccio cauto ai commenti, rimuovendo tutto ciò che viene segnalato e ripristinando una volta che il commento è stato convalidato".

Vorremmo incoraggiare il regolatore a continuare a lavorare con le piattaforme per identificare i video che, sebbene di natura innocente, attirano commenti inappropriati e sospendono la possibilità di commentare pubblicamente sotto di loro Spesso i titolari di account non hanno idea di chi siano i commenti e il contesto è tutto. Un coetaneo che ammira una mossa di danza o un capo di abbigliamento è sostanzialmente diverso dai commenti di uno sconosciuto.

Finché i siti non sono tenuti a verificare l'età degli utenti, i live streaming saranno caricati e guardati dai bambini. I bambini hanno diritto alla tecnologia emergente quanto chiunque altro e devono essere in grado di usarla in sicurezza. Quindi, la sfida per il regolatore diventa come garantire che i bambini che stanno trasmettendo in live streaming possano farlo senza contatti inappropriati da parte di estranei.

Sebbene molti giovani ci dicano che apprezzano e apprezzano la convalida che ricevono dai commenti, la soluzione non è mantenere la funzionalità. È per fermarlo e investire tempo e denaro nella comprensione di ciò che sta accadendo nella vita dei nostri giovani che la convalida degli estranei è così significativa per loro.

Per i genitori che pubblicano immagini di bambini piccoli nelle piscine per bambini, ci sono risposte sia tecniche che educative. Dovrebbe essere possibile visualizzare le immagini solo in modalità privata in modo che gli estranei non siano in grado di commentare. In secondo luogo, dovrebbe esserci uno spettacolo educativo per i genitori, che probabilmente inizia con le conversazioni tra la futura mamma e l'ostetrica su quanta parte della vita infantile del loro bambino è appropriato pubblicare online affinché il mondo possa vederla. Il regolatore potrebbe svolgere un ruolo nello sfidare lo stile di vita da spettacolo che è diventato rapidamente la norma.

Domanda 21: Quali indicatori di potenziale danno dovrebbe essere a conoscenza di Ofcom come parte delle sue attività di monitoraggio e conformità continue sui servizi VSP? Si prega di fornire prove a sostegno della risposta ove possibile.
Negli ultimi 18 mesi, Internet Matters ha investito quantità significative di tempo e risorse per comprendere l'esperienza online dei bambini vulnerabili, in particolare come si differenzia dai loro coetanei non vulnerabili. La nostra relazione Bambini vulnerabili in un mondo digitale pubblicato nel febbraio 2019 ha dimostrato che i bambini vulnerabili hanno un'esperienza online notevolmente diversa. Ulteriori ricerche dimostrano che i bambini ei giovani affetti da SEND sono particolarmente a rischio in quanto sono meno in grado di valutare criticamente i rischi di contatto e più propensi a credere che le persone siano chi dicono di essere. Allo stesso modo, i bambini con esperienza di cura sono più a rischio di vedere contenuti dannosi, in particolare sui contenuti di autolesionismo e suicidio. Ci sono molti più esempi.

Il punto qui non è che i giovani vulnerabili dovrebbero avere un'esperienza separata se si identificano nelle piattaforme, ma più che il regolatore e le piattaforme riconoscono che ci sono milioni di bambini vulnerabili nel Regno Unito che richiedono ulteriore supporto per beneficiare della tecnologia connessa. La natura del supporto varierà ma includerà inevitabilmente interventi di alfabetizzazione digitale aggiuntivi e su misura, nonché una migliore moderazione dei contenuti per rimuovere i contenuti pericolosi prima che vengano condivisi.

I dati del Cybersurvey 2019 di Youthworks in collaborazione con Internet Matters indicano:

  • I giovani sono sempre più esposti a contenuti dannosi che parlano di suicidio o autolesionismo. Nel 2019, un quarto degli adolescenti intervistati aveva mai visto contenuti che parlavano di suicidio e il 13% aveva visto contenuti sull'autolesionismo. Nel 2015, l'11% aveva mai visto contenuti che incoraggiavano l'autolesionismo o il suicidio
  • La percentuale di persone che hanno subito episodi di bullismo o aggressione razzista personalmente online nel 2019 è superiore a quella del 2015; 13% rispetto al 4%
  • La percentuale di persone che hanno subito personalmente bullismo omofobico o aggressione online nel 2019 è quasi quattro volte superiore a quella del 2015; 15% rispetto al 4%
  • Il rischio di contenuto è più comunemente riscontrato rispetto al rischio di contatto:
    • Ai contenuti pro-anoressia, che abbiamo segnalato in diversi rapporti precedenti di Cybersurvey, quest'anno si aggiungono contenuti che incoraggiano gli adolescenti a "rinforzare il proprio corpo". Questo è ampiamente visto, soprattutto dai ragazzi. (Sebbene l'idoneità sia positiva, l'aumento di massa può essere dannoso se, per raggiungere questo obiettivo, un giovane è incoraggiato a usare sostanze che potrebbero non essere come etichettato)

I contenuti sull'autolesionismo sono visti `` spesso '' da adolescenti già vulnerabili, in particolare quelli con un disturbo alimentare (23%) o difficoltà di linguaggio (29%), mentre solo il 9% dei giovani senza vulnerabilità lo ha `` mai '' visto e solo Il 2% l'ha fatto "spesso".

Domanda 22: L'AVMSD 2018 richiede che i VSP adottino misure appropriate per proteggere i minori da contenuti che "possono compromettere il loro sviluppo fisico, mentale o morale". Quali tipi di contenuti consideri pertinenti in base a questo? Quali misure consideri più appropriate per proteggere i minori? Si prega di fornire prove a sostegno della propria risposta ove possibile, comprese eventuali considerazioni relative all'età.

Oltre ai contenuti di autolesionismo e suicidio descritti in dettaglio nella nostra risposta alla domanda 21, ci sono molti altri tipi di contenuti che possono compromettere lo sviluppo fisico, mentale o morale dei bambini che include (e non si limita a)

  • Pornografia e tutti gli altri contenuti per adulti e sessualizzati che circondano la pornografia. Ciò include anche l'impatto che questo contenuto ha sulla percezione che i bambini hanno di relazioni sane, consenso e ruolo delle donne. Il nostro rapporto - Dobbiamo parlare di pornografia descrive questi problemi nel contesto del supporto dei genitori per la verifica dell'età
  • Violenza: la normalizzazione della violenza e le implicazioni dei contenuti su determinati tipi di musica e cultura delle gang possono essere altamente dannose
  • Attività criminale: dall'uso del VSP per reclutare minori per i confini di contea e l'esaltazione di stili di vita glamour, esiste una gamma di contenuti dannosi che incoraggiano la criminalità
  • Gioco d'azzardo, fumo e alcol, coltelli - i bambini non dovrebbero essere in grado di giocare online - è illegale offline e dovrebbe essere illegale e impossibile online. Allo stesso modo, ci sono limiti di età per la vendita di articoli soggetti a restrizioni; tabacco, alcol e armi e questo dovrebbe significare che è impossibile per i bambini rivedere questo contenuto sotto forma di una pubblicità che lo affascina o essere presentato con l'opportunità di acquistarlo
  • Ideologia / Radicalizzazione / Estremismo - Anche se non cercheremo di limitare la libertà di parola, i bambini e i giovani meritano protezioni speciali in modo che non siano soggetti a ideologia e contenuto radicali ed estremi

Forse il modo per considerarlo è rivedere e aggiornare le categorie di contenuti che i provider di servizi Internet utilizzano per bloccare i contenuti tramite i filtri di controllo genitori. Tutti i contenuti generati dagli utenti dovrebbero essere soggetti alle stesse restrizioni per i bambini. Ciò che conta per la salute e il benessere dei bambini è il contenuto stesso, non se il contenuto è stato creato da un'emittente mainstream o da qualcuno lungo la strada.

Quali sono le misure più appropriate per proteggere i minori?

  • Con restrizioni, alcuni contenuti non dovrebbero essere offerti ad alcuni segmenti di pubblico
  • Maggiore utilizzo di avvisi splash screen per identificare contenuti legali ma dannosi
  • Azioni più draconiane contro gli utenti che creano contenuti che infrangono i termini e le condizioni delle piattaforme
  • Verifica dell'età per contenuti per adulti e garanzia dell'età per utenti di età compresa tra 13 e 16 anni

C'è un'urgenza in quanto i nostri dati mostrano che le esperienze di danno online sono aumentate durante il blocco.

Domanda 23: Quali sfide potrebbero affrontare i fornitori di VSP nell'adozione pratica e proporzionata di misure di cui Ofcom dovrebbe essere a conoscenza? Saremmo particolarmente interessati al tuo ragionamento sui fattori rilevanti per la valutazione di praticità e proporzionalità.
Può essere utile fare una distinzione qui tra contenuti illegali, dove ci sono requisiti molto chiari e contenuti legali ma dannosi, dove c'è un mondo di confusione
Questo è un problema serio e complesso che richiederà un lavoro significativo tra le piattaforme e il regolatore per essere risolto. Dato che il governo è intenzionato a nominare Ofcom come regolatore dei danni in linea, ci sarà tanto interesse per il modo in cui ciò viene fatto quanto per il fatto che viene fatto. Stabiliremo precedenti e creeremo aspettative.

Domanda 24: In che modo i VSP dovrebbero bilanciare i diritti dei loro utenti alla libertà di espressione e quali metriche dovrebbero utilizzare per monitorarli? Che ruolo vedi per un regolatore?

  • Chiarezza sulle linee guida della comunità su cosa è appropriato e cosa no e cosa sarà accettabile / tollerato. Abusane e sei fuori. La libertà di espressione non è limitata perché potresti trovare un'altra piattaforma per esprimere tali opinioni, ma non sono accettabili su questa
  • Metriche: prevalenza, rimozioni e rapporti
  • Il ruolo del regolatore è garantire che gli standard della comunità vengano applicati, riconoscere che come con tutte le regole le persone le spingono e le eluderanno, quindi è necessario anche un elemento di moderazione umana e buon senso
  • Il regolatore deve riconoscere che anche l'istruzione è una parte fondamentale di questo, quindi i VSP che investono in programmi educativi indipendenti che migliorano l'alfabetizzazione digitale dovrebbero essere incoraggiati / considerati favorevolmente / ricevere uno sconto sul prelievo

Domanda 25: In che modo i VSP dovrebbero prevedere un meccanismo di ricorso extragiudiziale per la risoluzione imparziale delle controversie tra utenti e fornitori di VSP? (cfr. paragrafo 2.32 e articolo 28 (b) (7) nell'allegato 5). Si prega di fornire prove o analisi a sostegno della risposta, ove possibile, compresa la considerazione su come questo requisito potrebbe essere soddisfatto in modo efficace e proporzionato.

Internet Matters non ha commenti su questa domanda

Domanda 26: In che modo Ofcom potrebbe supportare al meglio i VSP per continuare a innovare per mantenere gli utenti al sicuro?

  • Riconoscere gli investimenti e gli interventi fuori app in media / alfabetizzazione digitale che possono dimostrare un impatto attraverso una solida valutazione
  • Assicurarsi che riconoscano che la conformità è più della semplice rimozione di contenuti: come nel modello irlandese, deve includere misure per ridurre al minimo la diffusione e l'amplificazione di contenuti dannosi
  • Essere chiari sull'intenzione dei requisiti - dove, sempre come per il modello irlandese, esiste un ciclo di minimizzazione del danno per cui il numero di persone esposte a contenuti dannosi viene significativamente ridotto nel tempo come risultato diretto delle misure adottate
  • Rendi la segnalazione di contenuti pertinenti facile come il caricamento di contenuti e mantieni i giornalisti consapevoli dei processi e dei probabili tempi di risoluzione. Ciò dovrebbe includere tempi di risposta chiaramente pubblicati che soddisfino uno standard minimo e mantengano gli utenti informati. Inoltre, sospettiamo che alcune delle diciture sulla segnalazione dei contenuti siano scoraggianti per i bambini, quindi suggeriamo di fare del lavoro per identificare la formulazione e il processo più appropriati per i giovani in modo che siano più propensi a segnalare questo contenuto. Inoltre, è necessario uno sforzo sostenuto da parte delle piattaforme per ripristinare la fiducia nei loro meccanismi di segnalazione in modo che gli utenti di tutte le età credano che qualcosa accadrà se effettuano una segnalazione
  • Semplifica la segnalazione per i minori, quindi prova con loro il modo più appropriato per farlo dalla piattaforma. Il linguaggio complesso e specifico è il migliore per i giovani o un linguaggio più morbido come "non mi piace" o "questo contenuto mi rende infelice" sarebbe più efficace? Inoltre, dai la priorità alle loro preoccupazioni e forse prova cosa succede se le segnalazioni di minori vengono rimosse e quindi esaminate e reintegrate se necessario. Se davvero volessimo rendere Internet un luogo sicuro per i bambini, ci concentreremmo sui loro bisogni, sulle piattaforme che probabilmente frequenteranno

Domanda 27: In che modo Ofcom può supportare al meglio le aziende per conformarsi ai nuovi requisiti?

  • Riconoscere i limiti dell'ambito e della tempistica dei requisiti e inviare messaggi di conseguenza. Se i regolamenti si applicano solo a 6 o 8 organizzazioni, non esagerare: non saranno leader a livello mondiale. Questo è importante affinché i genitori siano realistici sui cambiamenti che i requisiti porteranno e non diventeranno meno vigili perché credono che ci sia una soluzione regolamentata
  • Riconoscere che le dimensioni non sono un prerequisito per l'esistenza di rischi e danni e che in ogni altro settore dei prodotti di consumo le imprese non possono immettere sul mercato prodotti meno sicuri o più rischiosi perché sono piccoli. I microbirrifici hanno gli stessi requisiti legali di conformità a tutte le normative appropriate in materia di salute e sicurezza di Coca-Cola. È lo stesso per i produttori di giocattoli e i produttori di film. Il diritto di essere al sicuro, o in questo caso non viene danneggiato, è assoluto e non dipende dalle dimensioni dell'organizzazione da cui stai consumando un prodotto o servizio

Domanda 28: avete qualche opinione sulla serie di principi di cui al paragrafo 2.49 (protezione e garanzia, libertà di espressione, adattabilità nel tempo, trasparenza, applicazione robusta, indipendenza e proporzionalità) e sul bilanciamento delle tensioni che a volte possono verificarsi tra loro?

  • Le proposte irlandesi riconoscono che si tratta di un processo iterativo, quindi accogliamo con favore i sentimenti per essere agili e innovativi. Al centro della regolamentazione nel rispetto dei codici, piuttosto che del comportamento personale, ma è comunque necessario un luogo in cui educare in modo che il comportamento sia affrontato. Anche l'attuale consultazione della Commissione giuridica sui crimini online è un intervento interessante in quanto tali modifiche alla legge creeranno chiarezza giuridica e quindi culturale su ciò che è accettabile e sul comportamento legale online
  • Le preoccupazioni relative alla libertà di parola e di espressione possono essere affrontate attraverso termini e condizioni, quindi potrebbe esserci un luogo in cui le tue opinioni estreme sono benvenute, ma questa non è la piattaforma appropriata per questo. Non suggerendo che non puoi esprimere quelle opinioni ma semplicemente affermando che non puoi farlo su questa piattaforma
  • Riconoscimento delle sfide della verifica dell'età per i minori e dei margini di errore nell'assicurazione dell'età e dei limiti inevitabili di tali tecnologie

Altro da esplorare

Consulta altri articoli e risorse per aiutare i bambini a rimanere online in sicurezza.

Messaggi recenti