MENÜ

Antwort von Internet Matters auf AVMSD

Junge und Mädchen auf dem Sofa auf dem iPad

Video-Sharing-Plattformen sind ein wichtiger Bestandteil des digitalen Lebens. Unsere Antwort auf die Konsultation von Ofcom zur Regulierung dieser Plattformen finden Sie hier.

Internet Matters freut sich, an dieser willkommenen Beratung teilnehmen zu können. Wir haben einige einleitende Kommentare, die unser Denken bestimmen, bevor wir auf die spezifischen Fragen eingehen. Internetangelegenheiten helfen Familien, von vernetzter Technologie zu profitieren. Wir sind gemeinnützig und werden von der Internetbranche finanziert. Wir freuen uns, führende Marken zusammenzubringen, um uns auf Kindersicherheit und digitales Wohlbefinden zu konzentrieren. Wir bieten Eltern kompetente Beratung, die auf wirklich nützliche Weise, nach Alter des Kindes, nach Gerät, App oder Plattform oder nach Problem präsentiert wird.

Wir wissen, dass die Beschäftigung mit unseren Inhalten Eltern, Betreuern und zunehmend Fachleuten das Vertrauen und die Werkzeuge gibt, die sie benötigen, um sich mit dem digitalen Leben derer auseinanderzusetzen, die ihnen wichtig sind. Ein engagierter Erwachsener im Leben eines Kindes ist der wichtigste Faktor für die Online-Sicherheit. Daher ist es ein wesentlicher Bestandteil der digitalen Kompetenz, diesen Erwachsenen die Werkzeuge, Ressourcen und das Vertrauen zum Handeln zur Verfügung zu stellen.

Regulierungsgrundlage und Komplexität für Eltern

AVMSD stammt aus dem EU-Rechtsbestand, der auf dem Prinzip des Herkunftslandes beruht. In der Praxis bedeutet dies, wie aus dem Konsultationsdokument hervorgeht, dass der vorläufige Rechtsrahmen 6 Mainstream-Websites und 2 Websites mit Inhalten für Erwachsene umfasst. Dies wird sich für Eltern als sehr schwer zu erklären erweisen, die zu Recht erwarten können, dass der in Großbritannien sichtbare Inhalt in Großbritannien reguliert ist.

Die Konsultation erkennt zwar die Einschränkungen des AVMSD an, stellt jedoch wiederholt fest, dass die bevorstehende Gesetzgebung zu Online-Schäden in dem Maße, in dem altersunangemessene Inhalte behandelt werden, nicht verpflichtet sein wird, das Herkunftslandprinzip einzuhalten. Dies ist eine Position, die wir unterstützen. Wenn der Inhalt in Großbritannien angezeigt werden kann, sollte er den britischen Regeln entsprechen.

Es besteht jedoch eine Abweichung zwischen den erklärten Zielen des Online Harms White Paper und dem Geltungsbereich des AVMSD. Das Weißbuch befasst sich hauptsächlich mit Plattformen, die die Veröffentlichung von benutzergenerierten Inhalten ermöglichen. Das AVMSD ist auf diese Weise nicht eingeschränkt. In diesem Fall hat die AVMSD es richtig gemacht. Es macht keinen Sinn, den Geltungsbereich der Online Harms-Gesetzgebung auf Plattformen zu beschränken, auf denen benutzergenerierte Inhalte veröffentlicht werden können. Was zählt, ist die Art des Inhalts, nicht wie oder von wem er produziert wurde.

Frage 19: Welche Beispiele gibt es für die wirksame Anwendung und Umsetzung einer der in Artikel 28 (b) (3) der AVMSD 2018 aufgeführten Maßnahmen? Die Maßnahmen umfassen Geschäftsbedingungen, Kennzeichnungs- und Berichterstattungsmechanismen, Altersüberprüfungssysteme, Bewertungssysteme, Kindersicherungssysteme, leicht zugängliche Beschwerdefunktionen und die Bereitstellung von Maßnahmen und Instrumenten zur Medienkompetenz. Bitte geben Sie Beweise und konkrete Beispiele an, um Ihre Antwort zu unterstützen.
Unsere Arbeit, Familien zuzuhören, informiert über alles, was wir tun - und da wir ein wesentlicher Bestandteil der Bereitstellung digitaler Kompetenz für Eltern sind, wollten wir einige Erkenntnisse mit Ihnen teilen. Eltern suchen Rat zur Online-Sicherheit, wenn eines von vier Dingen passiert:

  • Zu Hause gibt es ein neues Gerät
  • Auf dem Gerät befindet sich eine neue App / Plattform
  • Kinder beginnen die Sekundarschule
  • Es gibt Sicherheitsbedenken, die aus einer Reihe von Gründen ausgelöst werden können, nicht zuletzt aus Erfahrungen, Aufforderungen aus der Schule, Medienberichten usw.

Eltern suchen am häufigsten Hilfe über eine Online-Suche oder bitten um Hilfe in der Schule. Während der Sperrung war die Suche nach Lösungen eindeutig wichtiger, was bedeutet, dass nachweislich fundierte Ratschläge von glaubwürdigen Organisationen ganz oben auf der Rangliste stehen müssen.

Sobald sich die Eltern mit Ratschlägen beschäftigen, muss dies leicht verständlich sein. Deshalb befragen wir die Eltern regelmäßig, was sie nach dem Besuch unserer Website für anders halten und tun würden. Die folgenden Diagramme zeigen, dass die Bereitstellung von Inhalten für Eltern, die ihren Anforderungen entsprechen, zu bedeutenden und messbaren Veränderungen führt.

Diese Datenpunkte weisen darauf hin, dass die digitale Kompetenz der Eltern durch qualitativ hochwertige Ressourcen beeinflusst werden kann und wird - was sie dazu befähigt, routinemäßige Gespräche mit ihren Kindern über ihr digitales Leben zu führen. Darüber hinaus gehören unsere Seiten zur Kindersicherung durchweg zu den Top 10 der beliebtesten Seiten.

Frage 20: Welche Beispiele gibt es für Maßnahmen, die die Erwartungen hinsichtlich des Nutzerschutzes nicht erfüllt haben, und warum? Bitte legen Sie Beweise vor, um Ihre Antwort zu unterstützen, wo immer dies möglich ist.
Wir müssen zu dem Schluss kommen, dass die Moderation von Live-Streaming derzeit nicht funktioniert und möglicherweise nicht funktioniert. Der Missbrauch der Nutzungsbedingungen der Plattform erfolgt in Echtzeit. In den folgenden beiden Beispielen wurden nicht einfach die Geschäftsbedingungen aufgegeben, sondern es war viel ernster. Der tragische Selbstmord der letzten Zeit wurde innerhalb von Sekunden weltweit verbreitet, und obwohl Plattformen schnell und entschlossen Maßnahmen ergriffen, sahen zu viele Menschen diesen erschütternden Inhalt in Mainstream-Apps, ohne oder mit geringer Warnung vor grafischen Inhalten. Wie wir alle wissen, war dies nicht das einzige Beispiel für ein Versagen der Live-Streaming-Moderation, wie die Schießereien in Christchurch im März 2019 hervorhoben.

Dies sind eindeutig komplexe Themen, bei denen jemand absichtlich versucht, Leben durch seine eigenen Handlungen und seine Entscheidung, es live zu streamen, zu zerstören. Natürlich sind die beiden Beispiele nicht vergleichbar, außer was wir daraus lernen können und was ein Regulierer in diesen Situationen sinnvoll tun könnte. Vielleicht liegt es in der extremen und außergewöhnlichen Natur dieses Inhalts, dass Komfort gefunden werden kann - in fast allen anderen Fällen wird dieser Inhalt in den Momenten zwischen Hochladen und Teilen identifiziert und isoliert. Dies sind eindeutig Entscheidungen in Sekundenbruchteilen, die auf hervorragenden Algorithmen und qualifizierten menschlichen Moderatoren beruhen. Vielleicht besteht die Rolle der Regulierungsbehörde in dieser Situation darin, mit Plattformen zu arbeiten, auf die solche Inhalte hochgeladen werden können oder wurden und die angezeigt und geteilt werden, um zu verstehen und zu untersuchen, was schief gelaufen ist, und dann konkrete Maßnahmen zu vereinbaren, um sicherzustellen, dass sie nicht erneut auftreten können. Vielleicht könnten diese Erkenntnisse von der Regulierungsbehörde auf vertrauliche Weise mit anderen Plattformen geteilt werden, nur um sicherzustellen, dass die Lehren so weit wie möglich gezogen werden - zum Schutz der Öffentlichkeit und gegebenenfalls zur Gewährleistung von Rechtsbehelfen durch das Unternehmen. Um dies zu erreichen, muss die Kultur der Regulierungsbehörde und ihr Ansatz kollaborativ und engagiert sein und nicht fern und strafend.

Zu den Empfehlungen, die die Regulierungsbehörde möglicherweise bereitstellen möchte, könnte gehören (ohne darauf beschränkt zu sein), dass Unternehmen Pläne zur Zusammenarbeit festgelegt haben, um sicherzustellen, dass Benachrichtigungen sofort plattformübergreifend geteilt werden - da es keinen kommerziellen Vorteil hat, diese Informationen auf einer Plattform zu halten.

Das andere Problem, das einer detaillierten Prüfung bedarf, sind Kommentare unter Videos - sei es Kleinkinder im Planschbecken oder Teenager, die sich mit Musikvideos synchronisieren. Vielleicht gibt es hier zwei verschiedene Probleme. Für die Konten junger Menschen zwischen 13 und 16 Jahren sollten Plattformen, sofern und bis keine Anonymität im Internet mehr besteht, dazu ermutigt werden, vorsichtig mit Kommentaren umzugehen, alle gemeldeten Inhalte zu entfernen und nach Bestätigung des Kommentars wieder einzuführen.

Wir möchten die Regulierungsbehörde ermutigen, weiterhin mit Plattformen zusammenzuarbeiten, um Videos zu identifizieren, die zwar unschuldiger Natur sind, jedoch unangemessene Kommentare anziehen und die Möglichkeit, öffentlich unter ihnen zu kommentieren, aussetzen. Oft haben Kontoinhaber keine Ahnung, von wem die Kommentare hinterlassen werden, und der Kontext ist alles. Ein Peer, der eine Tanzbewegung oder ein Kleidungsstück bewundert, unterscheidet sich wesentlich von den Kommentaren eines Fremden.

Solange Websites nicht erforderlich sind, um das Alter der Benutzer zu überprüfen, werden Live-Streams von Kindern hochgeladen und angesehen. Kinder haben genauso viel Recht auf neue Technologien wie alle anderen - und müssen diese sicher nutzen können. Die Herausforderung für die Regulierungsbehörde besteht also darin, sicherzustellen, dass Kinder, die Live-Streaming betreiben, dies ohne unangemessenen Kontakt von Fremden tun können.

Während viele junge Leute uns sagen, dass sie die Validierung, die sie durch Kommentare erhalten, mögen und schätzen, besteht die Lösung nicht darin, die Funktionalität beizubehalten. Es geht darum, es zu stoppen und Zeit und Geld zu investieren, um zu verstehen, was im Leben unserer jungen Menschen geschieht, dass die Validierung von Fremden für sie so bedeutsam ist.

Für Eltern, die Bilder von Kleinkindern in Planschbecken veröffentlichen, gibt es sowohl technische als auch pädagogische Antworten. Es sollte möglich sein, dass Bilder nur im privaten Modus angezeigt werden, damit Fremde keine Kommentare abgeben können. Zweitens sollte es für Eltern ein pädagogisches Spiel geben - das wahrscheinlich mit Gesprächen zwischen der werdenden Mutter und der Ehefrau darüber beginnt, wie viel vom Säuglingsleben ihres Kindes angemessen ist, um online zu posten, damit die Welt es sieht. Die Aufsichtsbehörde könnte eine Rolle bei der Infragestellung des schnell zur Norm gewordenen Show-Reel-Lebensstils spielen.

Frage 21: Welche Indikatoren für potenzielle Schäden sollte Ofcom im Rahmen seiner laufenden Überwachungs- und Compliance-Aktivitäten für VSP-Dienste berücksichtigen? Bitte legen Sie Beweise vor, um Ihre Antwort zu unterstützen, wo immer dies möglich ist.
In den letzten 18 Monaten hat Internet Matters viel Zeit und Ressourcen investiert, um die Online-Erfahrung schutzbedürftiger Kinder zu verstehen - insbesondere, wie sie sich von ihren nicht schutzbedürftigen Altersgenossen unterscheidet. Unser Bericht Verletzliche Kinder in einer digitalen Welt Die Veröffentlichung im Februar 2019 hat gezeigt, dass schutzbedürftige Kinder online eine deutlich andere Erfahrung machen. Weitere Untersuchungen zeigen, dass Kinder und Jugendliche mit SEND einem besonderen Risiko ausgesetzt sind, da sie Kontaktrisiken weniger kritisch bewerten können und eher glauben, dass Menschen so sind, wie sie sagen, dass sie sind. Ebenso besteht bei Kindern mit Betreuungserfahrung ein höheres Risiko, schädliche Inhalte zu sehen, insbesondere in Bezug auf Selbstverletzung und Selbstmord. Es gibt viele weitere Beispiele.

Hier geht es nicht darum, dass schutzbedürftige junge Menschen eine eigene Erfahrung machen sollten, wenn sie sich gegenüber den Plattformen identifizieren, sondern mehr als die Aufsichtsbehörde und die Plattformen erkennen, dass es in Großbritannien Millionen schutzbedürftiger Kinder gibt, die zusätzliche Unterstützung benötigen, um von vernetzter Technologie zu profitieren. Die Art der Unterstützung ist unterschiedlich, umfasst jedoch zwangsläufig zusätzliche und maßgeschneiderte Maßnahmen zur digitalen Kompetenz sowie eine bessere Moderation von Inhalten, um gefährliche Inhalte zu entfernen, bevor sie freigegeben werden.

Daten aus der Cybersurvey 2019 von Youthworks in Zusammenarbeit mit Internet Matters zeigen:

  • Junge Menschen sind zunehmend schädlichen Inhalten ausgesetzt, die über Selbstmord oder Selbstverletzung sprechen. Im Jahr 2019 hatte ein Viertel der jugendlichen Befragten jemals Inhalte gesehen, die über Selbstmord sprachen, und 13% hatten Inhalte über Selbstverletzung gesehen. Im Jahr 2015 hatten 11% jemals Inhalte gesehen, die Selbstverletzung oder Selbstmord fördern
  • Der Prozentsatz derjenigen, die 2019 persönlich online rassistisches Mobbing oder Aggressionen erlebt haben, ist höher als 2015; 13% gegenüber 4%
  • Der Prozentsatz derjenigen, die 2019 persönlich homophobes Mobbing oder Aggression online erlebt haben, ist fast viermal so hoch wie 2015; 15% gegenüber 4%
  • Das Inhaltsrisiko ist häufiger als das Kontaktrisiko:
    • Pro-Anorexia-Inhalte, die wir in mehreren früheren Cybersurvey-Berichten erwähnt haben, werden in diesem Jahr durch Inhalte ergänzt, die Jugendliche dazu ermutigen, „Ihren Körper zu vergrößern“. Dies ist weit verbreitet, vor allem von Jungen. (Während die Fitness positiv ist, kann das Aufblähen schädlich sein, wenn ein junger Mensch dazu ermutigt wird, Substanzen zu verwenden, die möglicherweise nicht so gekennzeichnet sind.)

Inhalte über Selbstverletzung werden "häufig" von bereits gefährdeten Teenagern gesehen, insbesondere von Personen mit Essstörungen (23%) oder Sprachschwierigkeiten (29%), während nur 9% der jungen Menschen ohne Schwachstellen dies "jemals" und nur gesehen haben 2% haben dies "oft" getan.

Frage 22: Nach dem AVMSD 2018 müssen VSPs geeignete Maßnahmen ergreifen, um Minderjährige vor Inhalten zu schützen, die „ihre körperliche, geistige oder moralische Entwicklung beeinträchtigen können“. Welche Arten von Inhalten halten Sie dafür für relevant? Welche Maßnahmen halten Sie für am besten geeignet, um Minderjährige zu schützen? Bitte legen Sie Beweise vor, um Ihre Antwort zu unterstützen, wo immer dies möglich ist, einschließlich altersbedingter Überlegungen.

Zusätzlich zu den Inhalten zu Selbstverletzung und Selbstmord, die in unserer Antwort auf Frage 21 aufgeführt sind, gibt es verschiedene andere Arten von Inhalten, die die körperliche, geistige oder moralische Entwicklung von Kindern beeinträchtigen können, einschließlich (und nicht beschränkt auf)

  • Pornografie und alle anderen erwachsenen und sexualisierten Inhalte rund um Pornografie. Dies schließt auch die Auswirkungen dieses Inhalts auf die Wahrnehmung gesunder Beziehungen, die Zustimmung und die Rolle von Frauen durch Kinder ein. Unser Bericht - Wir müssen über Pornografie sprechen Einzelheiten zu diesen Fragen im Zusammenhang mit der Unterstützung der Eltern bei der Altersüberprüfung
  • Gewalt - Die Normalisierung von Gewalt und die Auswirkungen von Inhalten auf bestimmte Arten von Musik und Gangkultur können sehr schädlich sein
  • Kriminelle Aktivitäten - von der Verwendung von VSP zur Rekrutierung von Minderjährigen für Kreisgrenzen bis zur Verherrlichung glamouröser Lebensstile gibt es eine Reihe schädlicher Inhalte, die die Kriminalität fördern
  • Glücksspiel, Rauchen und Alkohol, Messer - Kinder sollten nicht online spielen können - es ist offline illegal und sollte sowohl illegal als auch unmöglich online sein. Ebenso gibt es Altersbeschränkungen für den Verkauf von eingeschränkten Artikeln; Tabak, Alkohol und Waffen, und dies sollte bedeuten, dass es für Kinder unmöglich ist, diesen Inhalt in Form einer Werbung zu überprüfen, die ihn verherrlicht, oder die Möglichkeit zu erhalten, ihn zu kaufen
  • Ideologie / Radikalisierung / Extremismus - Während wir nicht versuchen würden, die Meinungsfreiheit einzuschränken, verdienen Kinder und Jugendliche besonderen Schutz, damit sie keiner radikalen und extremen Ideologie und Inhalten unterliegen

Möglicherweise können Sie dies berücksichtigen, indem Sie die Inhaltskategorien überprüfen und aktualisieren, die die Internetdienstanbieter zum Blockieren von Inhalten über die Kindersicherungsfilter verwenden. Alle benutzergenerierten Inhalte sollten denselben Einschränkungen für Kinder unterliegen. Was für die Gesundheit und das Wohlbefinden von Kindern wichtig ist, ist der Inhalt selbst, nicht ob der Inhalt von einem Mainstream-Sender oder von jemandem in der Zukunft erstellt wurde.

Welche Maßnahmen sind zum Schutz Minderjähriger am besten geeignet?

  • Eingeschränkt sollten einige Inhalte nur nicht für bestimmte Zielgruppen bereitgestellt werden
  • Verstärkte Verwendung von Begrüßungsbildschirmwarnungen zur Identifizierung legaler, aber schädlicher Inhalte
  • Drakonischere Aktionen gegen Benutzer, die Inhalte erstellen, die gegen die Nutzungsbedingungen der Plattform verstoßen
  • Altersüberprüfung für Inhalte für Erwachsene und Altersversicherung für Benutzer im Alter von 13 bis 16 Jahren

Dies ist dringend erforderlich, da unsere Daten zeigen, dass die Erfahrungen mit Online-Schäden während der Sperrung zugenommen haben.

Frage 23: Vor welchen Herausforderungen könnten VSP-Anbieter bei der praktischen und verhältnismäßigen Annahme von Maßnahmen stehen, die Ofcom kennen sollte? Wir wären besonders an Ihrer Begründung der Faktoren interessiert, die für die Beurteilung der Praktikabilität und Verhältnismäßigkeit relevant sind.
Es kann nützlich sein, hier zwischen illegalen Inhalten, bei denen sehr klare Anforderungen bestehen, und legalen, aber schädlichen Inhalten, bei denen Verwirrung herrscht, zu unterscheiden
Dies ist ein ernstes und komplexes Problem, dessen Lösung erhebliche Arbeit zwischen den Plattformen und der Regulierungsbehörde erfordert. Angesichts der Absicht der Regierung, Ofcom zum Online Harms Regulator zu ernennen, besteht ebenso großes Interesse daran, wie dies getan wird, wie daran, dass dies getan wird. Präzedenzfälle werden wir setzen und Erwartungen schaffen.

Frage 24: Wie sollten VSPs die Rechte ihrer Benutzer auf freie Meinungsäußerung ausgleichen und welche Metriken sollten sie verwenden, um dies zu überwachen? Welche Rolle sehen Sie für eine Regulierungsbehörde?

  • Klarheit über Community-Richtlinien, was angemessen ist und was nicht und was akzeptabel / toleriert wird. Missbrauche es und du bist weg. Die Meinungsfreiheit wird nicht eingeschränkt, da Sie eine andere Plattform finden könnten, um diese Ansichten auszudrücken - aber sie sind in dieser Hinsicht nicht akzeptabel
  • Metriken - Prävalenz, Abschaltungen und Berichterstattung
  • Die Rolle der Regulierungsbehörde besteht darin, sicherzustellen, dass Gemeinschaftsstandards durchgesetzt werden, und zu erkennen, dass die Menschen sie wie bei allen Regeln vorantreiben und ihnen ausweichen. Daher ist auch ein Element menschlicher Mäßigung und gesunden Menschenverstand erforderlich
  • Die Aufsichtsbehörde muss anerkennen, dass Bildung auch ein wesentlicher Bestandteil davon ist. Daher sollten VSPs, die in unabhängige Bildungsprogramme investieren, die die digitale Kompetenz verbessern, gefördert / positiv bewertet / mit einem Abgabenrabatt versehen werden

Frage 25: Wie sollten VSPs einen außergerichtlichen Rechtsschutzmechanismus für die unparteiische Beilegung von Streitigkeiten zwischen Benutzern und VSP-Anbietern vorsehen? (siehe Absatz 2.32 und Artikel 28 Buchstabe b Nummer 7 in Anhang 5). Bitte legen Sie nach Möglichkeit Nachweise oder Analysen vor, um Ihre Antwort zu unterstützen, einschließlich der Überlegung, wie diese Anforderung effektiv und verhältnismäßig erfüllt werden kann.

Internet Matters hat keinen Kommentar zu dieser Frage

Frage 26: Wie kann Ofcom VSPs am besten dabei unterstützen, weiterhin Innovationen zu entwickeln, um die Sicherheit der Benutzer zu gewährleisten?

  • Erkennen Sie Off-App-Investitionen und Interventionen in die Medien- / Digitalkompetenz, die durch eine solide Bewertung Auswirkungen zeigen können
  • Stellen Sie sicher, dass sie erkennen, dass Compliance mehr ist als das Entfernen von Inhalten - wie im irischen Modell müssen Maßnahmen zur Minimierung der Verbreitung und Verstärkung schädlicher Inhalte enthalten sein
  • Machen Sie sich die Absicht der Anforderungen klar - auch hier gibt es nach irischem Vorbild einen Zyklus der Schadensminimierung, bei dem die Anzahl der Personen, die schädlichen Inhalten ausgesetzt sind, im Laufe der Zeit als direkte Folge der ergriffenen Maßnahmen erheblich reduziert wird
  • Machen Sie die Berichterstellung zu Inhalten so einfach wie das Hochladen von Inhalten und halten Sie Reporter über Prozesse und wahrscheinliche Lösungszeiträume auf dem Laufenden. Dies sollte klar veröffentlichte Antwortzeiten beinhalten, die einem Mindeststandard entsprechen und die Benutzer auf dem Laufenden halten. Darüber hinaus vermuten wir, dass ein Teil des Wortlauts in Bezug auf die Berichterstattung über Inhalte für Kinder abstoßend ist. Daher wird vorgeschlagen, einige Arbeiten durchzuführen, um den am besten geeigneten Wortlaut und Prozess für junge Menschen zu ermitteln, damit sie diesen Inhalt mit größerer Wahrscheinlichkeit kennzeichnen. Darüber hinaus müssen die Plattformen nachhaltige Anstrengungen unternehmen, um das Vertrauen in ihre Berichtsmechanismen wiederherzustellen, damit Benutzer jeden Alters glauben, dass etwas passieren wird, wenn sie einen Bericht erstellen
  • Machen Sie Minderjährigen die Berichterstellung einfach - testen Sie mit ihnen die am besten geeignete Methode, um dies auf der Plattform zu tun. Ist eine komplexe, spezifische Sprache am besten für junge Leute geeignet, oder wäre eine weichere Sprache wie „Ich mag das nicht“ oder „Dieser Inhalt macht mich unglücklich“ effektiver? Priorisieren Sie außerdem ihre Bedenken und prüfen Sie möglicherweise, was passiert, wenn Berichte von Minderjährigen entfernt und bei Bedarf geprüft und wieder eingesetzt werden. Wenn wir das Internet wirklich zu einem sicheren Ort für Kinder machen wollten, würden wir uns auf ihre Bedürfnisse konzentrieren - auf die Plattformen, die sie wahrscheinlich häufig besuchen

Frage 27: Wie kann Ofcom Unternehmen am besten dabei unterstützen, die neuen Anforderungen zu erfüllen?

  • Erkennen Sie die Einschränkungen in Bezug auf Umfang und Zeitpunkt der Anforderungen - und teilen Sie sie entsprechend mit. Wenn die Vorschriften nur für 6 oder 8 Organisationen gelten, überfordern Sie sie nicht - sie werden nicht weltweit führend sein. Dies ist wichtig, damit die Eltern realistisch sind, welche Änderungen die Anforderungen mit sich bringen, und nicht weniger wachsam werden, weil sie glauben, dass es eine regulierte Lösung gibt
  • Erkennen Sie an, dass Größe keine Voraussetzung für das Bestehen von Risiken und Schäden ist und dass in jedem anderen Bereich von Konsumgütern Unternehmen weniger sichere oder riskantere Produkte nicht auf den Markt bringen können, weil sie klein sind. Mikrobrauereien haben die gleiche gesetzliche Verpflichtung, alle angemessenen Gesundheits- und Sicherheitsvorschriften einzuhalten wie Coca-Cola. Dies gilt auch für Spielzeughersteller und Filmproduzenten. Das Recht, sicher zu sein oder in diesem Fall nicht geschädigt zu werden, ist absolut und hängt nicht von der Größe der Organisation ab, von der Sie ein Produkt oder eine Dienstleistung konsumieren

Frage 28: Haben Sie Ansichten zu den in Absatz 2.49 dargelegten Grundsätzen (Schutz und Sicherheit, freie Meinungsäußerung, Anpassungsfähigkeit im Laufe der Zeit, Transparenz, solide Durchsetzung, Unabhängigkeit und Verhältnismäßigkeit) und zum Ausgleich der Spannungen, die manchmal zwischen diesen auftreten können? Sie?

  • In irischen Vorschlägen wird anerkannt, dass dies ein iterativer Prozess ist. Daher begrüßen wir die Stimmung, agil und innovativ zu sein. Der Schwerpunkt der Regulierung in Übereinstimmung mit Kodizes und nicht auf persönlichem Verhalten - aber es muss noch ein Ort der Aufklärung vorhanden sein, damit das Verhalten angesprochen wird. Die derzeitige Konsultation der Rechtskommission zu Online-Verbrechen ist auch hier eine interessante Intervention, da solche Gesetzesänderungen rechtliche und damit kulturelle Klarheit darüber schaffen, was akzeptables und rechtliches Verhalten online ist
  • Bedenken hinsichtlich der Meinungs- und Meinungsfreiheit können durch allgemeine Geschäftsbedingungen ausgeräumt werden - es kann also einen Ort geben, an dem Ihre extremen Ansichten willkommen sind -, aber dies ist nicht die geeignete Plattform dafür. Dies bedeutet nicht, dass Sie diese Ansichten nicht ausdrücken können, sondern lediglich, dass Sie dies auf dieser Plattform nicht tun können
  • Anerkennung der Herausforderungen der Altersüberprüfung für Minderjährige und der Fehlerquoten bei der Alterssicherung und der unvermeidlichen Einschränkungen dieser Technologien

Mehr zu entdecken

Lesen Sie weitere Artikel und Ressourcen, um Kindern zu helfen, online sicher zu sein.

Kürzliche Posts