MENU

Czym są algorytmy? Jak zapobiegać komorom echa i zapewniać dzieciom bezpieczeństwo w Internecie

Chłopiec używa swojego laptopa z otaczającą go bańką, aby pokazać, jak komory echa oddzielają użytkowników od poglądów innych osób.

Algorytmy są ważną częścią kanałów mediów społecznościowych, ale mogą tworzyć komory echa. Te komory echa prowadzą do problemów związanych z nienawiścią online, dezinformacją i nie tylko.

Czym jest algorytm?

Algorytm to zestaw instrukcji, według których program komputerowy wykonuje określone zadanie. Istnieją różne rodzaje algorytmów, ale w mediach społecznościowych to lista instrukcji decyduje o tym, jakie treści mają być wyświetlane użytkownikom. Algorytmy robią to, ucząc się na podstawie interakcji użytkowników z innymi treściami, na przykład poprzez polubienia, komentarze i udostępnienia.

Media społecznościowe wykorzystują algorytmy, aby utrzymać zaangażowanie użytkowników na ich platformie poprzez dostarczanie odpowiednich i interesujących postów. Jest to podobne do sposobu, w jaki witryny zbierają pliki cookie, aby wyświetlać użytkownikom odpowiednie dla nich reklamy.

Co to jest komora echa?

Komora echa to sytuacja, w której ludzie widzą tylko informacje potwierdzające ich aktualne przekonania i opinie.

Komory echa w mediach społecznościowych działają poprzez „ukrywanie” treści, które są nieistotne w oparciu o algorytm. Są to treści, które użytkownicy przesuwają obok, nie wchodzą z nimi w interakcję ani nie blokują ich w swoim kanale.

Jednak treści, których użytkownicy nie widzą, mogą pomóc w stworzeniu zrównoważonego obrazu świata. Tak więc niewidzenie tych treści może powodować błąd potwierdzenia, w którym użytkownicy widzą treści, które potwierdzają ich przekonania, przedstawiając różne punkty widzenia.

Jak algorytmy tworzą komory echa?

Algorytmy tworzą komory echa, pokazując użytkownikom treści podobne do tych, z którymi już się angażują. Jeśli te treści są szerzące nienawiść, sugestie będą również zawierać treści szerzące nienawiść. Na przykład wielu użytkowników, którzy śledzą Andrew Tate, znajduje się w otoczeniu podobnych treści, które się rozprzestrzeniają mizoginia i internetowej nienawiści wobec kobiet i dziewcząt.

Komputery i algorytmy nie są w stanie ocenić sugerowanych przez siebie informacji. W związku z tym algorytm nie może dokonać wyboru, aby pokazać użytkownikom wyważone poglądy lub fakty. Zamiast tego komory echa pokazują użytkownikom, że „wszyscy” wierzą w to samo co oni.

Ci użytkownicy mogą jednak wyświetlać treści tylko od osób o podobnych poglądach. Dlatego to do jednostki należy krytyczne myślenie o tym, co widzi i z czym wchodzi w interakcje.

Jakie zagrożenia wiążą się z komorami echa dla dzieci i młodzieży?

Internetowe komory echa mogą prowadzić niektórych użytkowników do bardziej skrajnych poglądów, ponieważ nie doświadczają przeciwnych poglądów. Może to prowadzić do narażenia na szkodliwe treści, teorie spiskowe i radykalizacja.

Dzieci są również bardziej narażone na wiarę mylna informacja lub bycie manipulowanym w Internecie. Mogą jeszcze nie mieć krytyczne myślenie lub umiejętności cyfrowe potrzebne, aby być wymagającym konsumentem treści ze względu na etap rozwoju ich mózgu.* W związku z tym są bardziej skłonni uwierzyć w skrajne lub kontrowersyjne idee.

Dodatkowo ekspozycja na nienawiści w Internecie, takiej jak rasizm i mizoginia lub inne szkodliwe światopoglądy mogą odcisnąć piętno na dobrostanie i rozwoju dzieci. Regularne oglądanie nieodpowiednich, brutalnych lub szerzących nienawiść treści może prowadzić do odczulenia. W rezultacie mogą nie być świadomi, że treści, które widzą, są szkodliwe i dlatego nie mogą wiedzieć, kiedy należy podjąć działanie.

Dzieci i młodzież korzystający z mediów społecznościowych mogą jeszcze nie rozumieć, jak działają algorytmy. Dlatego ważne jest, aby pomóc im nauczyć się zarządzać sugestiami treści, aby samodzielnie podejmować działania.

Internetowe centrum nienawiści dokument

Preteen dziewczyna siedzi na kanapie z poważnym wyrazem twarzy, gdy patrzy na wielokolorowe urządzenie w dłoniach. Tekst brzmi: „Nienawiść w Internecie: centrum faktów i porad” z logo Sprawy internetowe.

Algorytmy mogą tworzyć komory echa, które prowadzą do nienawiści w Internecie. Dowiedz się, jak działa nienawiść w Internecie i co możesz zrobić, aby ją powstrzymać.

ODWIEDŹ CENTRUM

Jak zapobiegać komorom echa w mediach społecznościowych

Algorytmy mogą oferować spersonalizowane doświadczenia w mediach społecznościowych, unikalne dla każdego użytkownika, ale ważne jest, aby rozpoznać potencjalne zagrożenia i rozwiązania. Pomóż dzieciom nauczyć się rozpoznawać, kiedy znajdują się w komorze echa, jak temu zapobiegać i gdzie uzyskać pomoc w razie potrzeby.

Porozmawiaj o mediach społecznościowych

Poznaj korzyści i zagrożenia związane z mediami społecznościowymi

Podobnie jak wiele rzeczy online, media społecznościowe niosą ze sobą zarówno korzyści, jak i zagrożenia. Aby uchronić dziecko przed wpadnięciem w pułapkę komór echa, upewnij się, że rozumie to ryzyko.

Pomocne może być również sprawdzenie minimalnego wieku platformy mediów społecznościowych. Jeśli Twoje dziecko nie spełnia wymagań wiekowych, może nie być gotowe do korzystania z platformy. Zachęcaj do korzystania z odpowiednie dla wieku platformy dopóki nie rozwiną umiejętności krytycznego myślenia i umiejętności cyfrowych.

Przejrzyj korzystanie z mediów społecznościowych

Ustaw granice w mediach społecznościowych

Więcej czasu poświęconego na Media społecznościowe oznacza, że ​​algorytmy dowiadują się więcej o zainteresowaniach Twojego dziecka. Komory echa rosną wraz z czasem spędzonym na angażowaniu się w odpowiednie treści. Dlatego ważne jest, aby wyznaczyć granice w mediach społecznościowych. Ustaw limity czasowe, użyj ustawienia bezpieczeństwa w aplikacji i porozmawiaj z nimi o tym, z kim wchodzą w interakcje lub obserwują.

Ćwicz krytyczne myślenie

Rozwijaj umiejętności krytycznego myślenia i umiejętności cyfrowych

Maszyny nie mogą krytycznie myśleć o tym, co sugerują użytkownikom. W związku z tym dzieci potrzebują możliwości rozwijania tych umiejętności dla siebie. Dlatego w ramach prowadzonych rozmów zadawaj im pytania pomocnicze:

  • Dlaczego śledzą określonego twórcę treści? Co uważają za interesujące lub zabawne?
  • Czy jest ktoś, komu może się nie podobać to, co mówi twórca treści? Dlaczego tak może być?
  • Jeśli podzielają punkty widzenia, jakie są przeciwne poglądy?
  • Kogo jeszcze naśladują, kto „równoważy” punkt widzenia tego twórcy?

Pamiętaj, że takie rozmowy nie muszą odbywać się tylko z kontrowersyjnymi influencerami. Regularnie rozmawiaj o wszystkich treściach, które widzi Twoje dziecko aby krytyczne myślenie stało się stałą częścią ich cyfrowego życia.

Skonfiguruj bezpiecznie razem

Opracujcie wspólnie ustawienia bezpieczeństwa

Większość platform mediów społecznościowych jest przeznaczona dla osób w wieku 13+. W związku z tym samo skonfigurowanie kontroli rodzicielskiej dla nastolatka nie wystarczy. W końcu wielu nastolatków wie, jak je wyłączyć (lub potrafi to rozgryźć).

Więc zamiast, zrób to wszystko razem. Porozmawiaj o tym, dlaczego ustawienie jest ważne i co robi. Przeprowadź dyskusję na temat punktów, z którymi się nie zgadzasz, aby dojść do kompromisu i kompromisu. W ten sposób czują się włączeni w swoje bezpieczeństwo online i mogą przejąć odpowiedzialność. Co więcej, jeśli potrzebują więcej wsparcia, będą czuć się bardziej komfortowo, prosząc Cię o pomoc.

Czy to było przydatne?
Powiedz nam, jak możemy to poprawić

Ostatnie posty