MENU

Odpowiedź w sprawach internetowych na AVMSD

chłopak i dziewczyna na kanapie na iPadzie

Platformy udostępniania wideo są kluczową częścią życia cyfrowego. Możesz przeczytać naszą odpowiedź na konsultacje Ofcom dotyczące regulowania tych platform tutaj.

Z przyjemnością uczestniczymy w tej mile widzianej konsultacji. Mamy kilka uwag wprowadzających, które kształtują nasze myślenie, zanim przejdziemy do konkretnych pytań. Internet Matters istnieje, aby pomóc rodzinom czerpać korzyści z połączonych technologii. Jesteśmy organizacją non-profit, finansowaną przez branżę internetową - iz przyjemnością łączymy wiodące marki, aby skupić się na bezpieczeństwie dzieci i cyfrowym dobrobycie. Udzielamy rodzicom fachowych porad, przedstawionych w naprawdę użyteczny sposób, według wieku dziecka, urządzenia, aplikacji, platformy lub wydania.

Wiemy, że angażowanie się w nasze treści daje rodzicom, opiekunom i coraz bardziej profesjonalistom pewność siebie i narzędzia, których potrzebują, aby angażować się w cyfrowe życie osób, którymi się opiekują. Posiadanie zaangażowanej osoby dorosłej w życie dziecka jest najważniejszym czynnikiem zapewniającym mu bezpieczeństwo w Internecie, dlatego zapewnienie tym dorosłym narzędzi, zasobów i pewności siebie do działania jest podstawową częścią umiejętności cyfrowych.

Podstawy prawne i zawiłości dla rodziców

AVMSD wywodzi się z unijnego zbioru przepisów, które opiera się na zasadzie „kraju pochodzenia”. W praktyce oznacza to, jak stwierdzono w dokumencie konsultacyjnym, że tymczasowe ramy regulacyjne obejmą 6 głównych witryn i 2 witryny z treściami dla dorosłych. Okaże się to bardzo trudne do wyjaśnienia rodzicom, którzy mogą słusznie oczekiwać, że jeśli treść jest widoczna w Wielkiej Brytanii, jest regulowana w Wielkiej Brytanii.

Uznając ograniczenia dyrektywy o audiowizualnych usługach medialnych, konsultacje wielokrotnie zwracają uwagę, że w zakresie, w jakim przyszłe przepisy dotyczące szkód online będą dotyczyć treści nieodpowiednich dla wieku, nie będą czuli się zobowiązani do przestrzegania zasady kraju pochodzenia. To stanowisko, które popieramy. Jeśli treść jest widoczna w Wielkiej Brytanii, powinna być zgodna z przepisami obowiązującymi w Wielkiej Brytanii.

Istnieje jednak rozbieżność między deklarowanymi celami Białej Księgi Online Harms a zakresem dyrektywy o audiowizualnych usługach medialnych. Biała księga mówi w dużej mierze o platformach, które pozwalają na publikację treści tworzonych przez użytkowników. AVMSD nie jest w ten sposób ograniczony. W tym przypadku AVMSD ma rację. Nie ma sensu ograniczanie zakresu przepisów dotyczących szkód online do platform, które umożliwiają publikację treści generowanych przez użytkowników. Liczy się charakter treści, a nie sposób lub przez kogo zostały one wyprodukowane.

Pytanie 19: Jakie są przykłady skutecznego wykorzystania i wdrożenia któregokolwiek ze środków wymienionych w artykule 28 (b) (3) AVMSD 2018? Środki te obejmują regulamin, mechanizmy oznaczania i zgłaszania, systemy weryfikacji wieku, systemy oceny, systemy kontroli rodzicielskiej, łatwo dostępne funkcje składania skarg oraz zapewnienie środków i narzędzi w zakresie umiejętności korzystania z mediów. Proszę przedstawić dowody i konkretne przykłady na poparcie swojej odpowiedzi.
Nasza praca polegająca na słuchaniu rodzin informuje o wszystkim, co robimy - a biorąc pod uwagę, że odgrywamy kluczową rolę w zapewnianiu rodzicom kompetencji cyfrowych, chcieliśmy podzielić się z wami kilkoma spostrzeżeniami. Rodzice szukają porady na temat bezpieczeństwa w Internecie, gdy wydarzy się jedna z czterech rzeczy:

  • W domu jest nowe urządzenie
  • Na urządzeniu jest nowa aplikacja / platforma
  • Dzieci rozpoczynają naukę w szkole średniej
  • Istnieje obawa dotycząca bezpieczeństwa, która może być spowodowana wieloma przyczynami, nie tylko doświadczeniem życiowym, podpowiedziami ze szkoły, historiami medialnymi itp.

Rodzice najczęściej szukają pomocy, korzystając z wyszukiwarki internetowej lub prosząc o pomoc w szkole. Najwyraźniej przez cały okres blokady poszukiwanie rozwiązań było ważniejsze, co oznacza, że ​​poparte dowodami porady od wiarygodnych organizacji muszą znajdować się na szczycie rankingów.

Kiedy rodzice zaangażują się w porady, muszą być one łatwe do zrozumienia - dlatego regularnie przeprowadzamy ankiety wśród rodziców na temat tego, co pomyśleliby, rozmawiając i robiąc inaczej po skorzystaniu z naszej witryny internetowej. Poniższe wykresy pokazują, że udostępnianie rodzicom treści, które spełniają ich wymagania, prowadzi do znaczących i wymiernych zmian.

Te punkty danych wskazują, że na umiejętności cyfrowe rodziców mogą wpływać dobrej jakości zasoby, które umożliwiają im rutynowe rozmowy z dziećmi na temat ich cyfrowego życia. Co więcej, nasze strony dotyczące kontroli rodzicielskiej konsekwentnie plasują się w pierwszej dziesiątce najpopularniejszych stron.

Pytanie 20: Jakie są przykłady środków, które nie spełniły oczekiwań w zakresie ochrony użytkowników i dlaczego? W miarę możliwości przedstaw dowody na poparcie swojej odpowiedzi.
Musimy stwierdzić, że moderowanie transmisji na żywo nie działa obecnie i być może nie może działać, nadużywanie warunków platformy ma miejsce w czasie rzeczywistym. W poniższych dwóch przykładach to nie tylko warunki, które zostały porzucone, były znacznie poważniejsze. Tragiczne niedawne samobójstwo rozeszło się po całym świecie w ciągu kilku sekund i chociaż platformy podjęły szybkie i zdecydowane działania, zbyt wiele osób dostrzegło wstrząsające treści w popularnych aplikacjach, z niewielkim lub żadnym ostrzeżeniem co do treści graficznych. Jak wszyscy wiemy, nie był to jedyny przykład niepowodzenia moderacji transmisji na żywo, jak pokazały strzelaniny w Christchurch w marcu 2019 roku.

Oczywiście są to złożone kwestie, w których ktoś celowo dąży do zniszczenia życia poprzez własne działania i decyzję o transmitowaniu na żywo. Oczywiście te dwa przykłady nie są porównywalne, chyba że możemy się z nich nauczyć i co regulator mógłby w znaczący sposób zrobić w takich sytuacjach. Być może jest to w bardzo ekstremalnym i wyjątkowym charakterze tych treści, niż można znaleźć wygodę - w prawie wszystkich innych okolicznościach treść ta jest identyfikowana i izolowana w momentach między przesłaniem a udostępnieniem. Oczywiście są to decyzje podejmowane w ułamku sekundy, które opierają się na znakomitych algorytmach i wykwalifikowanych ludzkich moderatorach. Być może rolą regulatora w tej sytuacji jest współpraca z platformami, na które takie treści mogą być lub były umieszczane, oglądane i udostępniane, aby zrozumieć i zbadać, co poszło nie tak, a następnie uzgodnić konkretne działania, aby upewnić się, że to się nie powtórzy. Być może te wnioski mogłyby zostać przekazane przez organ regulacyjny w poufny sposób innym platformom, po prostu w celu zapewnienia jak najszerszego wyciągnięcia wniosków - w celu ochrony opinii publicznej oraz, w stosownych przypadkach, aby firma mogła zapewnić zadośćuczynienie. Aby to osiągnąć, kultura regulatora i jego podejście muszą być oparte na współpracy i angażowaniu, a nie na odległość i karanie.

Zalecenia, które regulator może chcieć wdrożyć, mogą obejmować (ale nie ograniczać się do) firm wnioskujących o ustalenie planów współpracy w celu zapewnienia natychmiastowego udostępniania powiadomień między platformami - ponieważ przechowywanie tych informacji na jednej platformie nie przynosi korzyści handlowych.

Inną kwestią, która wymaga szczegółowego rozważenia, są komentarze pod filmami - czy to małe dzieci w brodziku, czy nastolatki synchronizujące ruchy warg z teledyskami. Być może są tu dwie odrębne kwestie. W przypadku kont młodych ludzi w wieku 13-16 lat, chyba że anonimowość w Internecie przestanie istnieć, „należy zachęcać platformy do ostrożnego podejścia do komentarzy, usuwania wszelkich zgłoszeń i przywracania ich po zatwierdzeniu komentarza”.

Zachęcamy organ regulacyjny do dalszej współpracy z platformami w celu identyfikowania filmów, które choć z natury są niewinne, przyciągają nieodpowiednie komentarze i zawieszają możliwość publicznego komentowania pod nimi. Często posiadacze kont nie mają pojęcia, kto zostawia komentarze, a kontekst jest wszystkim. Rówieśnik podziwiający ruch taneczny lub element garderoby różni się zasadniczo od komentarzy nieznajomego.

Dopóki strony nie muszą weryfikować wieku użytkowników, transmisje na żywo będą przesyłane i oglądane przez dzieci. Dzieci mają takie samo prawo do powstającej technologii, jak każdy inny - i muszą mieć możliwość bezpiecznego korzystania z niej. Dlatego wyzwaniem dla regulatora jest zapewnienie, że dzieci transmitujące na żywo mogą to robić bez niewłaściwego kontaktu ze strony nieznajomych.

Podczas gdy wielu młodych ludzi mówi nam, że lubią i doceniają potwierdzenie otrzymane w komentarzach, rozwiązaniem nie jest zachowanie funkcjonalności. Aby to powstrzymać i zainwestować czas i pieniądze w zrozumienie tego, co dzieje się w życiu naszych młodych ludzi, tak ważne jest dla nich uznawanie nieznajomych.

Rodzice publikujący zdjęcia małych dzieci w brodzikach mogą skorzystać z odpowiedzi technicznych i edukacyjnych. Powinna istnieć możliwość oglądania zdjęć tylko w trybie prywatnym, aby obcy nie mogli komentować. Po drugie, powinna istnieć gra edukacyjna dla rodziców - która prawdopodobnie zaczyna się od rozmowy między przyszłą matką a połową o tym, ile życia niemowlęcia ich dziecka należy publikować w Internecie, aby świat mógł je zobaczyć. Regulator mógłby odegrać rolę w rzuceniu wyzwania stylowi życia pokazów, który szybko stał się normą.

Pytanie 21: O jakich wskaźnikach potencjalnych szkód należy wiedzieć Ofcom w ramach swoich bieżących działań monitorujących i zapewniających zgodność usług VSP? W miarę możliwości przedstaw dowody na poparcie swojej odpowiedzi.
W ciągu ostatnich 18 miesięcy firma Internet Matters zainwestowała znaczną ilość czasu i zasobów w zrozumienie doświadczeń dzieci szczególnie wrażliwych w Internecie - a zwłaszcza tego, jak różni się ono od ich zdrowych rówieśników. Nasz raport Wrażliwe dzieci w cyfrowym świecie opublikowany w lutym 2019 r. wykazał, że wrażliwe dzieci mają znacznie inne doświadczenia online. Dalsze badania pokazują, że dzieci i młodzież z SEND są szczególnie narażeni na ryzyko, ponieważ są mniej zdolni do krytycznej oceny ryzyka związanego z kontaktem i są bardziej skłonni uwierzyć, że ludzie są tym, za kogo się podają. Podobnie, dzieci doświadczające opieki są bardziej narażone na zobaczenie szkodliwych treści, zwłaszcza dotyczących samookaleczeń i samobójstw. Przykładów jest znacznie więcej.

Nie chodzi tutaj o to, że młodzi ludzie w trudnej sytuacji powinni mieć osobne doświadczenie, jeśli identyfikują się na platformach, ale bardziej niż organy regulacyjne i platformy uznają, że w Wielkiej Brytanii są miliony wrażliwych dzieci, które potrzebują dodatkowego wsparcia, aby skorzystać z połączonych technologii. Charakter wsparcia będzie różny, ale nieuchronnie będzie obejmował dodatkowe i zindywidualizowane interwencje w zakresie umiejętności cyfrowych, a także lepsze moderowanie treści w celu usunięcia niebezpiecznych treści przed ich udostępnieniem.

Dane z Cybersurvey 2019 autorstwa Youthworks we współpracy z Internet Matters wskazują:

  • Młodzi ludzie są coraz bardziej narażeni na szkodliwe treści mówiące o samobójstwie lub samookaleczeniach. W 2019 roku jedna czwarta nastoletnich respondentów kiedykolwiek widziała treści mówiące o samobójstwie, a 13% widziało treści o samookaleczeniach. W 2015 roku 11% widziało kiedykolwiek treści zachęcające do samookaleczenia lub samobójstwa
  • Odsetek osób, które osobiście doświadczyły prześladowania lub agresji na tle rasowym w Internecie w 2019 r., Jest wyższy niż w 2015 r .; 13% w porównaniu do 4%
  • Odsetek osób, które osobiście doświadczyły homofobicznego zastraszania lub agresji w Internecie w 2019 r., Jest prawie czterokrotnie wyższy niż w 2015 r .; 15% w porównaniu do 4%
  • Ryzyko treści występuje częściej niż ryzyko kontaktu:
    • Treści proanoreksja, które sygnalizowaliśmy w kilku wcześniejszych raportach Cybersurvey, uzupełniają w tym roku treści zachęcające nastolatki do „masowania ciała”. Jest to szeroko widoczne, głównie przez chłopców. (Chociaż sprawność jest pozytywna, zwiększanie masy ciała może być szkodliwe, jeśli w tym celu młoda osoba jest zachęcana do używania substancji, które mogą nie być zgodne z etykietą)

Treści na temat samookaleczenia są „często” postrzegane przez już bezbronne nastolatki, zwłaszcza te z zaburzeniami odżywiania (23%) lub trudnościami z mową (29%), podczas gdy tylko 9% młodych ludzi bez słabości „kiedykolwiek” to widziało i tylko 2% robiło to „często”.

Pytanie 22: AVMS 2018 wymaga od VSP podjęcia odpowiednich środków w celu ochrony małoletnich przed treściami, które „mogą osłabić ich rozwój fizyczny, umysłowy lub moralny”. Jakie rodzaje treści uważasz za istotne w tym kontekście? Jakie środki uważasz za najbardziej odpowiednie w celu ochrony nieletnich? Proszę przedstawić dowody na poparcie swojej odpowiedzi, jeśli to możliwe, w tym wszelkie względy związane z wiekiem.

Oprócz treści dotyczących samookaleczeń i samobójstw wyszczególnionych w naszej odpowiedzi na pytanie 21, istnieje kilka innych rodzajów treści, które mogą upośledzać fizyczny, umysłowy lub moralny rozwój dzieci, które obejmują (i nie są ograniczone do)

  • Pornografia i wszelkie inne treści dla dorosłych i seksualne, które otaczają pornografię. Obejmuje to również wpływ, jaki te treści mają na postrzeganie zdrowych relacji przez dzieci, zgody i roli kobiet. Nasz raport - Musimy porozmawiać o pornografii szczegółowo opisuje te kwestie w kontekście wsparcia rodziców w weryfikacji wieku
  • Przemoc - normalizacja przemocy i implikacje treści w odniesieniu do niektórych rodzajów muzyki i kultury gangów mogą być bardzo szkodliwe
  • Działalność przestępcza - począwszy od wykorzystywania VSP do rekrutacji nieletnich do pracy w okręgach po gloryfikację wspaniałego stylu życia, istnieje szereg szkodliwych treści, które zachęcają do przestępczości
  • Hazard, palenie i alkohol, noże - dzieci nie powinny mieć możliwości uprawiania hazardu online - jest to nielegalne offline i powinno być zarówno nielegalne, jak i niemożliwe w Internecie. Podobnie, istnieją ograniczenia wiekowe dotyczące sprzedaży przedmiotów objętych ograniczeniami; tytoń, alkohol i broń, a to powinno oznaczać, że dzieci nie mogą przeglądać tych treści w formie reklamy, która je uświetnia lub mieć możliwość ich zakupu
  • Ideologia / Radykalizacja / Ekstremizm - chociaż nie chcielibyśmy ograniczać wolności słowa, dzieci i młodzież zasługują na specjalną ochronę, aby nie podlegały radykalnej i skrajnej ideologii i treści

Być może sposobem na rozważenie tego problemu jest przejrzenie i zaktualizowanie kategorii treści, których dostawcy usług internetowych używają do blokowania treści za pomocą filtrów kontroli rodzicielskiej. Wszystkie treści generowane przez użytkowników powinny podlegać takim samym ograniczeniom dla dzieci. Dla zdrowia i dobrego samopoczucia dzieci liczy się sama treść, a nie to, czy została stworzona przez głównego nadawcę, czy kogoś w pobliżu.

Jakie środki są najbardziej odpowiednie, aby chronić nieletnich?

  • Z ograniczeniami, niektóre treści po prostu nie powinny być wyświetlane niektórym grupom odbiorców
  • Większe wykorzystanie ostrzeżeń na ekranie powitalnym do identyfikowania legalnych, ale szkodliwych treści
  • Bardziej drakońskie działania przeciwko użytkownikom, którzy tworzą treści łamiące warunki platformy
  • Weryfikacja wieku dla treści dla dorosłych i zapewnienie wieku dla użytkowników w wieku 13-16 lat

Jest to pilne, ponieważ nasze dane pokazują, że liczba przypadków szkód w Internecie wzrosła podczas blokady.

Pytanie 23: Jakie wyzwania mogą napotkać dostawcy VSP przy praktycznym i proporcjonalnym przyjęciu środków, o których Ofcom powinien wiedzieć? Bylibyśmy szczególnie zainteresowani uzasadnieniem dotyczącym czynników istotnych dla oceny praktyczności i proporcjonalności.
W tym miejscu warto wprowadzić rozróżnienie między treściami niezgodnymi z prawem, w przypadku których istnieją bardzo jasne wymagania, a treściami prawnymi, ale szkodliwymi, w przypadku których panuje świat chaosu.
Jest to poważny i złożony problem, którego rozwiązanie będzie wymagało znacznej pracy między platformami a regulatorem. Biorąc pod uwagę, że rząd zamierza wyznaczyć Ofcom na stanowisko regulatora szkód online, będzie tak samo zainteresowane, jak to się robi, jak i tym, jak się to robi. Ustalimy precedensy i stworzymy oczekiwania.

Pytanie 24: W jaki sposób dostawcy usług wirtualnych powinni zrównoważyć prawa użytkowników do wolności wypowiedzi i jakich wskaźników powinni użyć, aby to monitorować? Jaką rolę widzi Pan dla regulatora?

  • Jasność w wytycznych społeczności dotyczących tego, co jest właściwe, a co nie oraz co będzie akceptowalne / tolerowane. Nadużyj tego i odejdziesz. Wolność słowa nie jest ograniczona, ponieważ można znaleźć inną platformę do wyrażania tych poglądów - ale na tej nie są one do przyjęcia
  • Metryki - rozpowszechnienie, usunięcia i raportowanie
  • Rolą regulatora jest zapewnienie egzekwowania standardów społecznych, uznanie, że tak jak w przypadku wszystkich zasad ludzie będą je narzucać i ich unikać, tak więc wymagany jest również element ludzkiego umiaru i zdrowego rozsądku
  • Organ regulacyjny musi uznać, że edukacja jest również kluczowym elementem, dlatego VSP, które inwestują w niezależne programy edukacyjne, które zwiększają alfabetyzację cyfrową, powinny być zachęcane / pozytywnie postrzegane / przyznawane zniżki w opłatach

Pytanie 25: W jaki sposób dostawcy VSP powinni zapewnić pozasądowy mechanizm dochodzenia roszczeń w celu bezstronnego rozstrzygania sporów między użytkownikami a dostawcami VSP? (patrz ust. 2.32 i art. 28 lit. b) pkt 7 w załączniku 5). Proszę przedstawić dowody lub analizę na poparcie swojej odpowiedzi, o ile to możliwe, w tym rozważenie, w jaki sposób można spełnić ten wymóg w skuteczny i proporcjonalny sposób.

Sprawy internetowe nie komentują tego pytania

Pytanie 26: W jaki sposób Ofcom może najlepiej wspierać VSP, aby nadal wprowadzać innowacje w celu zapewnienia bezpieczeństwa użytkownikom?

  • Rozpoznaj inwestycje w aplikacje i interwencje w zakresie umiejętności korzystania z mediów / technologii cyfrowych, które mogą wykazać wpływ poprzez rzetelną ocenę
  • Upewnij się, że uznają, że zgodność to coś więcej niż usunięcie treści - tak jak w modelu irlandzkim, musi obejmować środki minimalizujące rozprzestrzenianie się i wzmacnianie szkodliwych treści
  • Jasno określ cel wymagań - w przypadku gdy, zgodnie z modelem irlandzkim, istnieje cykl minimalizacji szkód, w ramach którego liczba osób narażonych na szkodliwe treści jest z czasem znacząco zmniejszana w wyniku podjętych środków
  • Spraw, aby raportowanie treści było tak proste, jak przesyłanie treści, i informuj reporterów o procesach i prawdopodobnych ramach czasowych rozwiązania. Powinno to obejmować jasno opublikowane czasy odpowiedzi, które spełniają minimalne standardy i informują użytkowników. Ponadto podejrzewamy, że niektóre sformułowania dotyczące zgłaszania treści są odstręczające dla dzieci, dlatego zasugeruj, aby podjęto pewne wysiłki w celu zidentyfikowania najodpowiedniejszego sformułowania i procedury dla młodych ludzi, aby częściej oznaczać te treści. Ponadto platformy muszą podejmować stałe wysiłki, aby przywrócić zaufanie do ich mechanizmów raportowania, tak aby użytkownicy w każdym wieku wierzyli, że coś się stanie, jeśli dokonają zgłoszenia.
  • Ułatw zgłaszanie nieletnim - przetestuj z nimi najbardziej odpowiedni sposób zrobienia tego przez platformę. Czy złożony, konkretny język jest najlepszy dla młodych ludzi, czy może bardziej skuteczny byłby bardziej miękki język, taki jak „Nie podoba mi się to” lub „ta treść mnie nieszczęśliwa”? Ponadto ustal priorytety ich obaw i być może sprawdź, co się stanie, jeśli raporty od nieletnich zostaną usunięte, a następnie zbadane i przywrócone, jeśli zajdzie taka potrzeba. Gdybyśmy naprawdę chcieli, aby internet był bezpiecznym miejscem dla dzieci, skupilibyśmy się na ich potrzebach - na platformach, które prawdopodobnie często odwiedzają

Pytanie 27: W jaki sposób Ofcom może najlepiej wspierać przedsiębiorstwa w spełnianiu nowych wymagań?

  • Rozpoznaj ograniczenia zakresu i harmonogramu wymagań - i odpowiednio je przekaż. Jeśli przepisy dotyczą tylko 6 lub 8 organizacji, nie przejmuj się - nie będą wiodącymi na świecie. Jest to ważne, aby rodzice realistycznie oceniali, jakie zmiany przyniosą wymagania, i nie stracą czujności, ponieważ wierzą, że istnieje uregulowane rozwiązanie
  • Należy pamiętać, że wielkość nie jest warunkiem wstępnym istnienia ryzyka i szkody, oraz że w każdej innej dziedzinie produktów konsumenckich firma nie może wprowadzać na rynek produktów mniej bezpiecznych lub bardziej ryzykownych, ponieważ są one małe. Mikrobrowary mają taki sam wymóg prawny, aby przestrzegać wszystkich odpowiednich przepisów dotyczących zdrowia i bezpieczeństwa, co Coca-Cola. To samo dotyczy producentów zabawek i producentów filmów. Prawo do bycia bezpiecznym lub w tym przypadku nie doznania krzywdy jest bezwzględne i niezależne od wielkości organizacji, z której konsumujesz produkt lub usługę

Pytanie 28: Czy masz jakieś poglądy na temat zbioru zasad przedstawionych w paragrafie 2.49 (ochrona i pewność, wolność wypowiedzi, możliwość dostosowania w czasie, przejrzystość, solidne egzekwowanie, niezależność i proporcjonalność) oraz równoważenia napięć, które mogą czasami wystąpić między im?

  • W irlandzkich propozycjach uznano, że jest to proces iteracyjny, dlatego mile widziane są uczucia, aby być elastycznym i innowacyjnym. Koncentruje się na regulacji zgodnej z kodeksami, a nie na osobistym zachowaniu - ale nadal potrzebujesz miejsca do edukacji, aby zająć się zachowaniem. Obecne konsultacje Komisji Prawnej w sprawie przestępstw internetowych są również interesującą interwencją, ponieważ takie zmiany w prawie stworzą jasność prawną, a tym samym kulturową, co do tego, co jest dopuszczalne i legalnego zachowania w Internecie.
  • Kwestie dotyczące wolności słowa i wypowiedzi można rozwiązać za pomocą warunków - więc może być miejsce, w którym Twoje skrajne poglądy są mile widziane - ale to nie jest odpowiednia platforma do tego. Nie sugerując, że nie możesz wyrazić tych poglądów, ale po prostu stwierdzając, że nie możesz tego zrobić na tej platformie
  • Rozpoznanie wyzwań związanych z weryfikacją wieku nieletnich i marginesów błędu w zapewnieniu wieku oraz nieuniknionych ograniczeń tych technologii

Więcej do odkrycia

Zobacz więcej artykułów i zasobów, aby pomóc dzieciom zachować bezpieczeństwo w Internecie.

Ostatnie posty