MENU

Czym jest generatywna sztuczna inteligencja (Gen-AI) i jak może wpłynąć na dobrostan dzieci?

Obejrzyj cały #Take20Talk na temat wpływu sztucznej inteligencji na dobrostan dzieci.

W tym miesiącu wzięliśmy udział w dyskusji #Take20Talk organizacji Anti-Bullying Alliance.

Dowiedz się o korzystaniu z generatywnej sztucznej inteligencji przez dzieci i jej skutkach przed naszymi nadchodzącymi badaniami na temat generatywnej sztucznej inteligencji i edukacji.

Byliśmy zachwyceni możliwością wzięcia udziału w rozmowie #Take20Talk z Anti-Bullying Alliance. Wykład dał nam okazję do omówienia wpływu generatywnej sztucznej inteligencji na cyfrowy dobrostan dzieci.

Podczas sesji omówiliśmy wykorzystanie generatywnej sztucznej inteligencji przez dzieci, korzyści i ryzyko, jakie ze sobą niesie, a także obecny krajobraz polityczny dotyczący tej rozwijającej się technologii. Niniejsza prezentacja poprzedza nasze nadchodzące badania dotyczące generatywnej sztucznej inteligencji i edukacji, które zostaną opublikowane na początku przyszłego roku.

Czym jest generatywna sztuczna inteligencja?

Generatywna sztuczna inteligencja (Gen-AI) to forma sztucznej inteligencji, która tworzy oryginalny tekst, obrazy i dźwięk. Modele Gen-AI są szkolone na zbiorach danych wykorzystywanych do tworzenia nowych treści, w oparciu o wzorce wyuczone podczas procesu uczenia.

Gen-AI wykorzystuje Przetwarzanie języka naturalnego (NLP). Jest to gałąź sztucznej inteligencji, która „koncentruje się na pomaganiu komputerom w zrozumieniu, interpretacji i generowaniu ludzkiego języka”. Technologie te oferują dzieciom wiele ekscytujących możliwości. Jednakże, podobnie jak w przypadku wszystkich nowych technologii, oprócz korzyści, istnieją również potencjalne zagrożenia, o których należy wiedzieć.

Jakie są możliwości Gen-AI?

Dostosowane doświadczenia edukacyjne

Generatywna sztuczna inteligencja może pomóc nauczycielom dostosować plany lekcji i materiały, aby lepiej wspierać różne potrzeby edukacyjne uczniów. Zapewnia to zatem bardziej wciągające i włączające doświadczenie edukacyjne w różnorodnych klasach.

W rzeczywistości nauczyciele korzystają już z narzędzi generatywnej sztucznej inteligencji, aby zapewnić dostosowane wsparcie uczniom ze specjalnymi potrzebami edukacyjnymi i niepełnosprawnościami (SEND).

Wsparcie poprzez infolinie

Dzieci mogą korzystać z infolinii wykorzystujących generatywną sztuczną inteligencję. Infolinie wsparcia w zakresie zdrowia społecznego i psychicznego zbudowane w oparciu o generatywną sztuczną inteligencję mogą zapewnić młodym ludziom wysoce responsywne i spersonalizowane wsparcie. Może to prowadzić do natychmiastowej pomocy i zwiększyć ogólną skuteczność wsparcia ludzkiego.

Na przykład, Telefon pomocy dla dzieci to internetowa usługa w zakresie zdrowia psychicznego, która wykorzystuje technologię generatywnej sztucznej inteligencji, aby zapewnić całodobowe wsparcie dzieciom w całej Kanadzie. Korzystając z NLP, usługa ta analizuje i dopasowuje styl komunikacji młodych ludzi. To z kolei kieruje dzieci do konkretnego kanału usług, którego potrzebują, niezależnie od tego, czy chodzi o wsparcie w przypadku stresu emocjonalnego, problemów z zastraszaniem czy innych problemów.

Telefony zaufania oferują młodym ludziom bezpieczną i anonimową przestrzeń, w której mogą wyrazić swoje uczucia i obawy bez obawy przed oceną. Jednakże, chociaż chatboty infolinii mogą zapewniać szybkie odpowiedzi, brakuje im niuansów i możliwości adaptacji, jakie oferuje wsparcie ludzkie. Będą zatem walczyć o pełne zastąpienie efektywności interakcji międzyludzkich.

Chatboty wspierające emocje

Oprócz wspierania i kierowania młodymi ludźmi przez telefon, chatboty AI mogą służyć jako wirtualni towarzysze. W niektórych przypadkach mogą zapewnić wsparcie emocjonalne dzieciom, które mają trudności z nawiązaniem przyjaźni lub radzeniem sobie z wyzwaniami społecznymi. Dodatkowo chatboty mogą wspierać dzieci, które czują się samotne lub mają trudności z podzieleniem się swoimi uczuciami z innymi.

Przy odpowiednich zabezpieczeniach chatboty mogą również wspierać dzieci zmagające się z fobią społeczną. Narzędzia te mogą zapewnić nieoceniającą przestrzeń do angażowania się w rozmowy oraz do rozwijania i ćwiczenia interakcji społecznych.

Przykładem tego rodzaju chatbota jest Harlie. Harlie to aplikacja na smartfony, która wykorzystuje technologię AI i algorytmy NLP do rozmowy z ludźmi. Jednak zamiast tylko odpowiadać na pytania, Harlie zachęca do dialogu, zadając użytkownikowi pytania. Co więcej, za zgodą użytkownika, Harlie może przechwytywać informacje na temat wzorców mowy, aby udostępniać je zespołom zajmującym się zdrowiem i badaniami oraz zapewniać terapię celowaną.

Jakie są potencjalne zagrożenia?

Wpływ na krytyczne myślenie

Nadmierne poleganie na generatywnej sztucznej inteligencji może negatywnie wpłynąć na umiejętności krytycznego myślenia dzieci. Dzieje się tak, ponieważ ogranicza to możliwości zaangażowania się w niezależną analizę i rozwiązywanie problemów. Co więcej, wykorzystywanie sztucznej inteligencji jako głównego źródła wiedzy może zagrozić możliwości kwestionowania i oceniania informacji. Zobacz nasz przewodnik po krytycznym myśleniu online.

Jest ważne by pomóż dzieciom wdrożyć narzędzia AI w naukę, nie polegając na nich zbytnio.

Relacje paraspołeczne i znęcanie się

Istnieje niepokojący trend, zgodnie z którym młodzi użytkownicy kopiują zachowania związane z zastraszaniem i kierują je do chatbota AI. W mediach społecznościowych niektórzy użytkownicy zachęcają innych do „znęcania się” nad chatbotami poprzez oświetlenie gazowe i ogólne złe traktowanie.

Chociaż dzieci nie znęcają się nad innymi ludźmi, istnieją obawy, w jaki sposób wirtualne interakcje mogą normalizować zachowania związane z znęcaniem się.

Narażenie na treści wulgarne

Korzystanie z niektórych chatbotów AI może narazić dzieci na: treści wyraźne i nieodpowiednie. Jednym z przykładów takiego chatbota jest Replika. Replika to niestandardowy chatbot AI, który zachęca użytkowników do udostępniania danych osobowych. Im więcej informacji użytkownik mu udostępni, tym bardziej może spersonalizować swoje odpowiedzi.

Chociaż witryna twierdzi, że jest przeznaczona wyłącznie dla osób powyżej 18 roku życia, nie wymaga żadnej weryfikacji wieku. W związku z tym dzieci nie napotkają żadnych barier w korzystaniu z witryny.

Replika zachęca użytkowników do angażowania się w rozmowy o charakterze jawnym dla dorosłych. Ponadto zachęca ich do uiszczenia opłaty za chatbota za udostępnianie nieprzyzwoitych zdjęć lub ułatwianie „romantycznej” rozmowy wideo. Normalizacja płacenia za treści dla dorosłych mogłaby promować kulturę, w której dzieci uważają, że akceptowane jest żądanie, otrzymywanie i wysyłanie nieodpowiednich obrazów – zarówno za pomocą chatbota, jak i między sobą.

Nielegalne generowanie treści

Ze raportów wynika, że ​​dzieci coraz częściej korzystają z narzędzi sztucznej inteligencji do generowania nieprzyzwoitych wizerunków rówieśników, co ułatwiają łatwo dostępne aplikacje do „rozbierania”. Nieprzyzwoite zdjęcia osób poniżej 18 roku życia są nielegalne bez względu na okoliczności ich powstania. To zawiera materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) wyprodukowane w technologii deepfake.

Chociaż dynamika produkcji i dystrybucji deepfake różni się od innych form wykorzystywania seksualnego opartego na wizerunkach, szkody dla ofiar będą prawdopodobnie równie poważne, jeśli nie większe.

Co nastolatki mówią o technologii deepfake

Aby bardziej szczegółowo zbadać wpływ technologii deepfake, na początku tego roku zorganizowaliśmy serię grup fokusowych. W grupach fokusowych uczestniczyli nastolatkowie w wieku 15–17 lat i poruszali temat mizoginii w Internecie. Obejmuje to również dynamikę płci, która stanowi podstawę molestowanie i molestowanie seksualne dziecka wobec dziecka.

Uczestnicy dyskutowali o wykorzystywaniu seksualnym z wykorzystaniem technologii deepfake – kwestii, która w tym roku wielokrotnie trafiała na pierwsze strony gazet, zarówno w Wielkiej Brytanii, jak i za granicą. Nastolatki – zwłaszcza uczestniczące w badaniu kobiety – ogólnie podzielały pogląd, że bycie ofiarą nadużyć typu deepfake może w rzeczywistości być bardziej szkodliwe niż konwencjonalne formy udostępniania zdjęć bez zgody.

Uczestnicy powiedzieli nam, że intensywność krzywdy wynika z braku sprawczości i kontroli, które odczuliby w przypadku deepfake’a. Dzieje się tak dlatego, że nie mieliby wiedzy ani zgody na jego produkcję:

„Myślę, że deepfake byłby może o wiele gorszy, bo w przypadku aktu też to zrobiłeś, więc o tym wiesz, podczas gdy deepfake nie będziesz miał w ogóle pojęcia. Dosłownie może teraz istnieć jeden przypadek i nikt nie może o tym wiedzieć” – Dziewczyna, 15–17 lat, grupa fokusowa ds. spraw internetowych.

Nadchodzące badania nad generatywną sztuczną inteligencją

Rząd Wielkiej Brytanii zdecydował się nie wprowadzać nowych przepisów dotyczących sztucznej inteligencji. Zamiast tego regulacja produkcji i stosowania nowych technologii sztucznej inteligencji będzie zależeć od istniejących ram prawnych.

Nadal nie jest jasne, czy to delikatne podejście dostatecznie ochroni jednostki – zwłaszcza dzieci – przed pełnym zakresem zagrożeń stwarzanych przez sztuczną inteligencję, w tym przed szkodami wynikającymi z nowych usług i technologii.

Ważne jest, aby poglądy i obawy młodych ludzi i rodziców były uwzględniane w procesie kształtowania polityki dotyczącej zastosowań generatywnej sztucznej inteligencji. Jest to szczególnie prawdziwe w przypadku wykorzystania technologii w edukacji, gdzie możliwe zastosowania mogą mieć największy wpływ.

Z radością ogłaszamy nowe badania nad wpływem generatywnej sztucznej inteligencji na edukację, w oparciu o opinie dzieci i rodziców. Celem badania będzie zbadanie, w jaki sposób rodziny i szkoły wykorzystują sztuczną inteligencję Gen, a także nadzieje i obawy dzieci i rodziców dotyczące przyszłości.

Czy to było przydatne?
Powiedz nam, jak możemy to poprawić

Ostatnie posty