MENU

Respuesta de Internet Matters a AVMSD

niño y niña en el sofá del ipad

Las plataformas para compartir videos son una parte clave de la vida digital. Puede leer nuestra respuesta a la consulta de Ofcom sobre cómo regular estas plataformas aquí.

Internet Matters se complace en participar en esta consulta de bienvenida. Tenemos algunos comentarios introductorios que enmarcan nuestro pensamiento antes de entrar en las preguntas específicas. Internet Matters existe para ayudar a las familias a beneficiarse de la tecnología conectada. Somos una organización sin fines de lucro, financiada por la industria de Internet, y nos complace reunir a las principales marcas para enfocarnos en la seguridad infantil y el bienestar digital. Brindamos asesoramiento experto a los padres, presentado de una manera realmente útil, por edad del niño, por dispositivo, aplicación o plataforma o por tema.

Sabemos que interactuar con nuestro contenido les brinda a los padres, cuidadores y, cada vez más, a los profesionales la confianza y las herramientas que necesitan para involucrarse con la vida digital de sus seres queridos. Tener un adulto comprometido en la vida de un niño es el factor más importante para garantizar que esté seguro en línea, por lo que brindarles a esos adultos las herramientas, los recursos y la confianza para actuar es una parte fundamental de la alfabetización digital.

Bases regulatorias y complejidades para los padres

AVMSD se deriva del cuerpo legal de la UE que se basa en un principio de “país de origen”. En la práctica, esto significa que, como indica el documento de consulta, el marco regulatorio provisional cubrirá 6 sitios principales y 2 sitios de contenido para adultos. Esto resultará muy difícil de explicar a los padres que podrían esperar con razón que si el contenido se puede ver en el Reino Unido, está regulado en el Reino Unido.

Si bien reconoce las limitaciones de la AVMSD, la consulta señala repetidamente que, en la medida en que la próxima legislación sobre daños en línea aborde el contenido inapropiado para la edad, no se sentirá obligada a respetar el principio del país de origen. Esta es una posición que apoyamos. Si el contenido se puede ver en el Reino Unido, entonces debe cumplir con las reglas del Reino Unido.

Sin embargo, existe una desalineación entre los objetivos declarados del Libro Blanco de Daños en Línea y el alcance del AVMSD. El Libro Blanco habla en gran medida de plataformas que permiten la publicación de contenido generado por el usuario. El AVMSD no está limitado de esa manera. En este caso, AVMSD lo ha hecho bien. No tiene sentido limitar el alcance de la legislación sobre daños en línea a plataformas que permiten la publicación de contenido generado por el usuario. Lo que importa es la naturaleza del contenido, no cómo o quién lo produjo.

Pregunta 19: ¿Qué ejemplos existen de uso e implementación efectivos de cualquiera de las medidas enumeradas en el artículo 28 (b) (3) de la AVMSD 2018? Las medidas son los términos y condiciones, los mecanismos de notificación y señalización, los sistemas de verificación de edad, los sistemas de clasificación, los sistemas de control parental, las funciones de quejas de fácil acceso y la provisión de medidas y herramientas de alfabetización mediática. Proporcione evidencia y ejemplos específicos para respaldar su respuesta.
Nuestro trabajo de escuchar a las familias informa todo lo que hacemos, y dado que somos una parte clave para brindar alfabetización digital a los padres, queríamos compartir algunas ideas con ustedes. Los padres buscan consejos sobre seguridad en línea cuando sucede una de estas cuatro cosas:

  • Hay un nuevo dispositivo en casa.
  • Hay una nueva aplicación / plataforma en el dispositivo
  • Los niños comienzan la escuela secundaria
  • Existe una preocupación por la seguridad que puede ser provocada por una serie de razones, entre ellas la experiencia vivida, las indicaciones de la escuela, las historias de los medios, etc.

Los padres buscan ayuda con mayor frecuencia a través de una búsqueda en línea o pidiendo ayuda en la escuela. Claramente, durante el bloqueo, la búsqueda de soluciones ha sido más importante, lo que significa que los consejos basados ​​en evidencia de organizaciones confiables deben estar en la parte superior de la clasificación.

Una vez que los padres se comprometen con los consejos, estos deben ser fáciles de entender, por lo que periódicamente encuestamos a los padres sobre lo que pensarían, hablar y hacer de manera diferente después de participar en nuestro sitio web. Los cuadros a continuación demuestran que ofrecer a los padres contenido que cumpla con sus requisitos genera cambios significativos y medibles.

Estos puntos de datos indican que la alfabetización digital entre los padres puede y está influenciada por recursos de buena calidad, que los capacitan para tener conversaciones de rutina con sus hijos sobre sus vidas digitales. Además, nuestras páginas sobre controles parentales se clasifican constantemente entre las 10 páginas más populares.

Pregunta 20: ¿Qué ejemplos existen de medidas que no hayan cumplido las expectativas en cuanto a la protección de los usuarios y por qué? Proporcione evidencia para respaldar su respuesta siempre que sea posible.
Tenemos que concluir que la moderación de la transmisión en vivo no funciona actualmente y tal vez no funcione, el abuso de los términos y condiciones de las plataformas ocurre en tiempo real. En los dos ejemplos siguientes, no se abandonaron simplemente los términos y condiciones, sino que fue mucho más grave. El trágico suicidio reciente circuló en todo el mundo en segundos y, aunque las plataformas tomaron medidas rápidas y decisivas, demasiadas personas vieron ese contenido desgarrador en las aplicaciones principales, con poca o ninguna advertencia sobre el contenido gráfico. Como todos sabemos, este no fue el único ejemplo de falla en la moderación de la transmisión en vivo, como lo destacaron los tiroteos de Christchurch en marzo de 2019.

Claramente, estos son problemas complejos en los que alguien se propone deliberadamente devastar vidas a través de sus propias acciones y su decisión de transmitirlo en vivo. Por supuesto, los dos ejemplos no son comparables, salvo en lo que podemos aprender de ellos y en lo que un regulador podría hacer de manera significativa en estas situaciones. Quizás es en la naturaleza extrema y excepcional de este contenido donde se puede encontrar la comodidad, en el sentido de que en casi todas las demás circunstancias este contenido se identifica y aísla en los momentos entre la carga y el intercambio. Claramente, estas son decisiones de fracción de segundo que dependen de algoritmos sobresalientes y moderadores humanos calificados. Quizás el papel del regulador en esta situación es trabajar con plataformas en las que dicho contenido se pueda cargar, ver y compartir para comprender y explorar qué salió mal y luego acordar acciones concretas para garantizar que no vuelva a suceder. Quizás el regulador podría compartir esos aprendizajes de manera confidencial con otras plataformas, simplemente con el fin de garantizar que las lecciones se aprendan lo más ampliamente posible, para la protección del público y, cuando corresponda, para que la empresa proporcione reparación. Para eso, para que funcione la cultura del regulador y su enfoque tiene que ser colaborativo y participativo en lugar de remoto y punitivo.

Las recomendaciones que el Regulador puede querer implementar podrían incluir (pero no limitarse a) solicitar que las empresas hayan establecido planes para trabajar juntas para garantizar que las notificaciones se compartan de inmediato en todas las plataformas, ya que no existe una ventaja comercial en mantener esta información dentro de una plataforma.

El otro tema que requiere una consideración detallada son los comentarios en los videos, ya sean niños pequeños en la piscina infantil o adolescentes sincronizando los labios con videos musicales. Quizás haya aquí dos cuestiones distintas. Para las cuentas de jóvenes de entre 13 y 16 años, a menos y hasta que el anonimato en Internet ya no exista, 'se debe alentar a las plataformas a adoptar un enfoque cauteloso con los comentarios, eliminar todo lo que se informe y restablecer una vez que el comentario haya sido validado'

Alentamos al regulador a continuar trabajando con plataformas para identificar videos que, aunque de naturaleza inocente, atraen comentarios inapropiados y suspenden la capacidad de comentar públicamente debajo de ellos. A menudo, los titulares de cuentas no tienen idea de quién está siendo dejado los comentarios y el contexto lo es todo. Un compañero que admire un movimiento de baile o una prenda de vestir es materialmente diferente a los comentarios de un extraño.

Mientras no se requiera que los sitios verifiquen la edad de los usuarios, los niños subirán y verán las transmisiones en vivo. Los niños tienen tanto derecho a la tecnología emergente como cualquier otra persona, y deben poder utilizarla de forma segura. Entonces, el desafío para el regulador es cómo garantizar que los niños que están transmitiendo en vivo puedan hacerlo sin el contacto inapropiado de extraños.

Si bien muchos jóvenes nos dicen que les gusta y aprecian la validación que reciben de los comentarios, la solución no es conservar la funcionalidad. Es para detenerlo e invertir tiempo y dinero en comprender lo que está sucediendo en la vida de nuestros jóvenes que la validación de los extraños es tan significativa para ellos.

Para los padres que publican imágenes de niños pequeños en piscinas infantiles, existen respuestas tanto técnicas como educativas. Debe existir la posibilidad de que las imágenes solo se vean en modo privado para que los extraños no puedan comentar. En segundo lugar, debería haber un juego educativo para los padres, que probablemente comience con conversaciones entre la futura madre y la partera sobre cuánto de la vida infantil de su hijo es apropiado publicar en línea para que el mundo lo vea. El regulador podría desempeñar un papel en desafiar el estilo de vida de los espectáculos que se ha convertido rápidamente en la norma.

Pregunta 21: ¿Qué indicadores de daño potencial debe tener en cuenta Ofcom como parte de sus actividades continuas de monitoreo y cumplimiento de los servicios de VSP? Proporcione evidencia para respaldar su respuesta siempre que sea posible.
En los últimos 18 meses, Internet Matters ha invertido una cantidad significativa de tiempo y recursos en comprender la experiencia en línea de los niños vulnerables, específicamente en qué se diferencia de la de sus compañeros no vulnerables. Nuestro informe Niños vulnerables en un mundo digital publicado en febrero de 2019 demostró que los niños vulnerables tienen una experiencia en línea marcadamente diferente. Investigaciones posteriores demuestran que los niños y jóvenes con SEND corren un riesgo particular, ya que son menos capaces de evaluar críticamente los riesgos de contacto y es más probable que crean que las personas son quienes dicen ser. Del mismo modo, los niños con experiencia de cuidado corren un mayor riesgo de ver contenido dañino, en particular sobre contenido de autolesiones y suicidio. Hay muchos más ejemplos.

El punto aquí no es que los jóvenes vulnerables deberían tener una experiencia separada si se identifican con las plataformas, sino más que el regulador y las plataformas reconocen que hay millones de niños vulnerables en el Reino Unido que requieren apoyo adicional para beneficiarse de la tecnología conectada. La naturaleza del apoyo variará, pero inevitablemente incluirá intervenciones de alfabetización digital adicionales y personalizadas, así como una mejor moderación del contenido para eliminar el contenido peligroso antes de que se comparta.

Los datos de Cybersurvey 2019 de Youthworks en asociación con Internet Matters indican:

  • Los jóvenes están cada vez más expuestos a contenido dañino que habla de suicidio o autolesión. En 2019, una cuarta parte de los adolescentes encuestados había visto alguna vez contenido que hablaba sobre suicidio y el 13% había visto contenido sobre autolesiones. En 2015, el 11% había visto alguna vez contenido que fomentara la autolesión o el suicidio.
  • El porcentaje que ha experimentado acoso o agresión racista personalmente en línea en 2019 es más alto que en 2015; 13% frente al 4%
  • El porcentaje que ha experimentado personalmente acoso o agresión homofóbica en línea en 2019 es casi cuatro veces mayor que en 2015; 15% frente al 4%
  • El riesgo de contenido se experimenta con más frecuencia que el riesgo de contacto:
    • El contenido pro-anorexia, que hemos señalado en varios informes anteriores de Cybersurvey, se une este año con contenido que alienta a los adolescentes a "fortalecer su cuerpo". Esto se ve ampliamente, sobre todo por los niños. (Si bien la condición física es positiva, aumentar de volumen puede ser perjudicial si, para lograrlo, se alienta a un joven a usar sustancias que pueden no estar indicadas en la etiqueta).

El contenido sobre autolesiones es visto 'a menudo' por adolescentes que ya son vulnerables, especialmente aquellos con un trastorno alimentario (23%) o dificultades del habla (29%), mientras que solo el 9% de los jóvenes sin vulnerabilidades lo han visto 'alguna vez' y solo El 2% lo ha hecho "a menudo".

Pregunta 22: El AVMSD 2018 requiere que los VSP tomen las medidas adecuadas para proteger a los menores de contenido que 'pueda afectar su desarrollo físico, mental o moral'. ¿Qué tipo de contenido considera relevante en este contexto? ¿Qué medidas considera más adecuadas para proteger a los menores? Siempre que sea posible, proporcione pruebas que respalden su respuesta, incluidas las consideraciones relacionadas con la edad.

Además del contenido de autolesiones y suicidio detallado en nuestra respuesta a la pregunta 21, hay varios otros tipos de contenido que pueden afectar el desarrollo físico, mental o moral de los niños, que incluye (y no se limita a)

  • Pornografía y todo otro contenido para adultos y sexualizado que rodea a la pornografía. Esto también incluye el impacto que este contenido tiene en la percepción de los niños sobre las relaciones saludables, el consentimiento y el papel de la mujer. Nuestro informe - Necesitamos hablar de pornografía detalla estos problemas en el contexto del apoyo de los padres para la verificación de la edad
  • Violencia: la normalización de la violencia y las implicaciones del contenido en torno a ciertos tipos de música y cultura de pandillas pueden ser muy perjudiciales.
  • Actividad delictiva: desde el uso de VSP para reclutar menores para las fronteras del condado y la glorificación de estilos de vida glamorosos, existe una variedad de contenido dañino que fomenta la delincuencia.
  • El juego, el tabaquismo y el alcohol, los cuchillos: los niños no deberían poder jugar en línea; es ilegal fuera de línea y debe ser ilegal e imposible en línea. Asimismo, existen restricciones de edad para la venta de artículos restringidos; tabaco, alcohol y armas y esto debería significar que es imposible que los niños revisen este contenido en forma de un anuncio que lo glamour o se les presente la oportunidad de comprarlo
  • Ideología / Radicalización / Extremismo: si bien no buscaríamos limitar la libertad de expresión, los niños y los jóvenes merecen protecciones especiales para que no estén sujetos a ideologías y contenidos radicales y extremos.

Quizás la forma de considerar esto es revisando y actualizando las categorías de contenido que utilizan los proveedores de servicios de Internet para bloquear contenido a través de los filtros de control parental. Todo el contenido generado por el usuario debe estar sujeto a las mismas restricciones para los niños. Lo que importa para la salud y el bienestar de los niños es el contenido en sí, no si el contenido fue creado por una emisora ​​convencional o alguien en el futuro.

¿Qué medidas son las más adecuadas para proteger a los menores?

  • Restringido, parte del contenido simplemente no debe mostrarse a algunas audiencias
  • Mayor uso de las advertencias de la pantalla de presentación para identificar contenido legal pero dañino
  • Acciones más draconianas contra los usuarios que crean contenido que rompe los términos y condiciones de las plataformas
  • Verificación de edad para contenido para adultos y garantía de edad para usuarios de 13 a 16 años

Esto es urgente, ya que nuestros datos muestran que las experiencias de daño en línea han aumentado durante el bloqueo.

Pregunta 23: ¿Qué desafíos podrían enfrentar los proveedores de VSP en la adopción práctica y proporcionada de medidas que Ofcom debería conocer? Nos interesaría especialmente su razonamiento sobre los factores relevantes para la evaluación de la practicidad y la proporcionalidad.
Puede resultar útil distinguir aquí entre contenido ilegal, donde existen requisitos muy claros, y contenido legal pero nocivo, donde hay un mundo de confusión.
Este es un problema grave y complejo que requerirá un trabajo importante entre las plataformas y el regulador para resolverlo. Dado que el Gobierno tiene la intención de nombrar a Ofcom como el Regulador de daños en línea, habrá tanto interés en cómo se hace esto como en cómo se hace. Estableceremos precedentes y crearemos expectativas.

Pregunta 24: ¿Cómo deben los VSP equilibrar los derechos de sus usuarios a la libertad de expresión y qué métricas deben usar para monitorear esto? ¿Qué papel ve para un regulador?

  • Claridad en las pautas de la comunidad sobre lo que es apropiado y no y lo que será aceptable / tolerado. Abusa de ello y te vas. La libertad de expresión no está restringida porque podría encontrar otra plataforma para expresar esos puntos de vista, pero no son aceptables en este caso.
  • Métricas: prevalencia, eliminaciones e informes
  • La función del regulador es garantizar que se cumplan los estándares de la comunidad, reconocer que, como ocurre con todas las reglas, las personas las presionarán y eludirán, por lo que también se requiere un elemento de moderación humana y sentido común.
  • El regulador debe reconocer que la educación también es una parte clave de esto, por lo que los VSP que invierten en programas educativos independientes que mejoran la alfabetización digital deben ser alentados / valorados de manera favorable / recibir un descuento de impuestos.

Pregunta 25: ¿Cómo deberían los VSP establecer un mecanismo de reparación extrajudicial para la resolución imparcial de disputas entre usuarios y proveedores de VSP? (véanse el párrafo 2.32 y el artículo 28 (b) (7) del anexo 5). Proporcione evidencia o análisis para respaldar su respuesta siempre que sea posible, incluida la consideración de cómo se podría cumplir este requisito de manera efectiva y proporcionada.

Internet Matters no tiene comentarios sobre esta pregunta

Pregunta 26: ¿Cómo podría Ofcom apoyar mejor a los VSP para que continúen innovando para mantener seguros a los usuarios?

  • Reconocer las inversiones e intervenciones fuera de la aplicación en alfabetización mediática / digital que pueden demostrar impacto a través de una evaluación sólida
  • Asegúrese de que reconozcan que el cumplimiento es más que la eliminación de contenido; como en el modelo irlandés, debe incluir medidas para minimizar la propagación y amplificación de contenido dañino.
  • Sea claro acerca de la intención de los requisitos, donde, nuevamente según el modelo irlandés, hay un ciclo de minimización de daños por el cual el número de personas expuestas a contenido dañino se reduce significativamente con el tiempo como resultado directo de las medidas tomadas.
  • Haga que la presentación de informes sobre contenido preocupante sea tan fácil como cargar contenido y mantenga a los reporteros al tanto de los procesos y los posibles plazos de resolución. Esto debe incluir tiempos de respuesta claramente publicados que cumplan con un estándar mínimo y mantengan informados a los usuarios. Además, sospechamos que algunas de las redacciones relacionadas con los informes de contenido son desagradables para los niños, por lo que sugerimos que se trabaje para identificar la redacción y el proceso más apropiados para los jóvenes, de modo que sea más probable que marquen este contenido. Además, es necesario que haya un esfuerzo sostenido por parte de las plataformas para restaurar la confianza en sus mecanismos de denuncia, de modo que los usuarios de todas las edades crean que algo sucederá si realizan una denuncia.
  • Facilite los informes para los menores, así que pruebe con ellos la forma más adecuada de hacerlo mediante la plataforma. ¿Es el lenguaje complejo y específico lo mejor para los jóvenes, o sería más efectivo un lenguaje más suave como "no me gusta esto" o "este contenido me hace infeliz"? Además, priorice sus preocupaciones y tal vez pruebe lo que sucede si los informes de los menores se eliminan y luego se examinan y se restablecen si es necesario. Si realmente quisiéramos hacer de Internet un lugar seguro para los niños, nos centraríamos en sus necesidades, en las plataformas que probablemente frecuentan.

Pregunta 27: ¿Cómo puede Ofcom ayudar mejor a las empresas a cumplir con los nuevos requisitos?

  • Reconozca las limitaciones en el alcance y el momento de los requisitos y envíeles un mensaje en consecuencia. Si las regulaciones solo se aplican a 6 u 8 organizaciones, no reclame en exceso, no serán líderes en el mundo. Esto es importante para que los padres sean realistas sobre los cambios que traerán los requisitos y no se vuelvan menos vigilantes porque creen que hay una solución regulada.
  • Reconozca que el tamaño no es un requisito previo para la existencia de riesgos y daños, y que en todos los demás dominios de productos de consumo, las empresas no pueden comercializar productos menos seguros o más riesgosos porque son pequeños. Las microcervecerías tienen el mismo requisito legal de cumplir con todas las regulaciones de salud y seguridad apropiadas que Coca-Cola. Lo mismo ocurre con los fabricantes de juguetes y los productores de películas. El derecho a estar seguro, o en este caso a no verse perjudicado, es absoluto y no depende del tamaño de la organización de la que está consumiendo un producto o servicio.

Pregunta 28: ¿Tiene alguna opinión sobre el conjunto de principios establecidos en el párrafo 2.49 (protección y garantía, libertad de expresión, adaptabilidad en el tiempo, transparencia, aplicación estricta, independencia y proporcionalidad) y sobre el equilibrio de las tensiones que a veces pueden surgir entre ¿ellos?

  • Las propuestas irlandesas reconocen que este es un proceso iterativo, por lo que agradecemos los sentimientos de ser ágiles e innovadores. El enfoque de la regulación en el cumplimiento de los códigos, en lugar del comportamiento personal, pero aún necesita un lugar para educar para que se aborde el comportamiento. La consulta actual de la Comisión Jurídica sobre delitos en línea también es una intervención interesante aquí, ya que tales cambios en la ley crearán claridad legal y, por lo tanto, cultural sobre lo que es aceptable y comportamiento legal en línea.
  • Las inquietudes sobre la libertad de expresión y la libertad de expresión se pueden abordar a través de términos y condiciones, por lo que puede haber un lugar donde sus puntos de vista extremos sean bienvenidos, pero esta no es la plataforma adecuada para eso. No sugiero que no puede expresar esos puntos de vista, pero simplemente indica que no puede hacerlo en esta plataforma.
  • Reconocimiento de los desafíos de la verificación de la edad para los menores y los márgenes de error en la garantía de la edad y las limitaciones inevitables de esas tecnologías

Más para explorar

Vea más artículos y recursos para ayudar a los niños a mantenerse seguros en línea.

Mensajes recientes