Sprawy związane z Internetem
Szukaj

Ja, ja i badania nad sztuczną inteligencją

Zrozumienie i ochrona dzieci korzystających z chatbotów opartych na sztucznej inteligencji

Poznaj interakcje dzieci z chatbotami opartymi na sztucznej inteligencji (AI) jako narzędziami i towarzyszami, a także korzyści i zagrożenia.

Chłopiec korzystający z telefonu

Na tej stronie

Kluczowe wnioski

  • Nauka i praca szkolnaPrawie połowa dzieci korzystających z chatbotów opartych na sztucznej inteligencji (AI) twierdzi, że korzysta z tych narzędzi do odrabiania lekcji. Obejmuje to pomoc w powtarzaniu materiału, wsparcie w pisaniu i naukę nowych pojęć.
  • Poszukiwanie poradyPrawie jedna czwarta dzieci korzystających z chatbotów opartych na sztucznej inteligencji (AI) twierdzi, że korzystała z nich w celu uzyskania porady. Porady obejmują zarówno pytania o to, co powinny założyć, jak i ćwiczenia rozmów, które chciałyby przeprowadzić z przyjaciółmi.
  • KoleżeństwoBadania wykazały również, że dzieci korzystają z chatbotów opartych na sztucznej inteligencji w celu nawiązania kontaktu i zapewnienia komfortu, w tym w celu symulowania przyjaźni. Niektóre z nich twierdzą, że robią to z nudów, aby omówić interesujące je tematy lub dlatego, że nie mają nikogo innego, z kim mogłyby porozmawiać.
  • Niedokładne i niewystarczające odpowiedzi:Czatboty ze sztuczną inteligencją czasami nie potrafią udzielić dzieciom jasnych i wyczerpujących porad, co jest niepokojące, ponieważ ponad połowa dzieci korzystających z chatbotów twierdzi, że korzystanie z tego narzędzia jest lepsze niż samodzielne szukanie informacji.
  • Duże zaufanie do porad:Dwa na pięć dzieci korzystających z chatbotów opartych na sztucznej inteligencji nie ma obaw przed stosowaniem się do otrzymywanych rad, a odsetek ten jest jeszcze wyższy wśród dzieci z grup ryzyka (2%). Dzieje się tak nawet wtedy, gdy rady są sprzeczne lub nie przynoszą wsparcia.
  • Narażenie na szkodliwe treści:Mimo że dostawcy chatbotów opartych na sztucznej inteligencji znają wiek użytkowników i blokują treści nieodpowiednie dla ich wieku, dzieci wciąż spotykają się ze szkodliwymi reakcjami.
  • Nieostre graniceNiektóre dzieci postrzegają chatboty oparte na sztucznej inteligencji jako podobne do ludzi i zwracają się do nich, używając zaimków wskazujących na płeć. Eksperci sugerują, że wraz z częstszym korzystaniem z chatbotów opartych na sztucznej inteligencji dzieci mogą stać się bardziej zależne emocjonalnie od nich.
  • Rozmowy z rodzicamiChociaż większość dzieci twierdzi, że rodzic rozmawiał z nimi o sztucznej inteligencji, wielu rodziców nie podzieliło się z nimi swoimi obawami. Do głównych obaw rodziców należą: nadmierne uzależnienie dzieci od sztucznej inteligencji, dokładność informacji i zbyt długie korzystanie z chatbotów.
  • Rozmowy z nauczycielami:Edukacja na temat sztucznej inteligencji w szkołach jest niespójna i czasami sprzeczna między nauczycielami. Większość dzieci, które rozmawiały z nauczycielami na temat sztucznej inteligencji, nie przypomina sobie, by odbywały one wiele takich rozmów.
  • Wsparcie dla edukacji w zakresie sztucznej inteligencji:Dzieci popierają fakt, że szkoły uczą ich korzystania z chatbotów opartych na sztucznej inteligencji. Uważają, że może to pomóc w nauce, a jednocześnie ograniczyć ryzyko, takie jak niedokładność, nadmierne poleganie na sztucznej inteligencji i naruszenie prywatności.
  • PrzemysłowePlatformy muszą przyjąć podejście uwzględniające bezpieczeństwo już na etapie projektowania, aby tworzyć chatboty AI dostosowane do wieku dzieci. Powinno to obejmować wbudowaną kontrolę rodzicielską, zaufane wskazówki i funkcje edukacji medialnej.
  • RządUstawa o bezpieczeństwie w Internecie powinna zawierać jasne wytyczne dotyczące ochrony chatbotów opartych na sztucznej inteligencji. Chatboty oparte na sztucznej inteligencji, które nie są przeznaczone dla dzieci, muszą mieć skuteczne zabezpieczenie wiekowe, aby dotrzymać kroku szybko rozwijającym się technologiom sztucznej inteligencji.
  • Wspieranie szkółRząd musi również wdrożyć sztuczną inteligencję i edukację medialną na wszystkich kluczowych etapach. Obejmuje to skuteczne szkolenia nauczycieli i jasne wytyczne dotyczące prawidłowego korzystania ze sztucznej inteligencji.
  • Wspieranie rodziców i opiekunówRodzice/opiekunowie potrzebują wsparcia w zakresie kierowania korzystaniem ze sztucznej inteligencji przez ich dzieci. Powinni czuć się pewnie, rozmawiając o tym, czym są chatboty oparte na sztucznej inteligencji, jak działają i kiedy ich używać.
  • DecydenciGłos dzieci musi być w centrum decyzji dotyczących rozwoju, regulacji i zarządzania chatbotami opartymi na sztucznej inteligencji (AI) oraz AI w ogóle. Obejmuje to inwestowanie w długoterminowe badania nad wpływem AI na dzieciństwo.

Obejrzyj: Webinarium „Ja, ja i sztuczna inteligencja”

Jeśli przegapiłeś webinarium na żywo, obejrzyj nagranie tutaj. Wypowiadają się w nim eksperci z branży technologicznej, edukacyjnej i bezpieczeństwa dzieci.

Ujawniamy ekskluzywne spostrzeżenia z raportu, dotyczące tego, w jaki sposób dzieci korzystają z narzędzi AI i na jakie szczególne zagrożenia mogą być narażone.

Obejrzyj całą dyskusję, aby dowiedzieć się:

  • Jak dzieci wchodzą dziś w interakcje z chatbotami opartymi na sztucznej inteligencji
  • Potencjalne zagrożenia, w tym nadmierne poleganie na treściach i niebezpieczne treści
  • Co mogą zrobić przemysł, rząd, nauczyciele i rodzice, aby zapewnić bezpieczeństwo dzieciom
  • Praktyczne zalecenia, w tym zapewnienie bezpieczeństwa wiekowego, znajomość sztucznej inteligencji w szkołach i inne

Czy chatboty oparte na sztucznej inteligencji są bezpieczne dla dzieci? — Co mówią eksperci

Widzę, że wielu z Was do nas dołączyło. Witam wszystkich i dziękuję za przybycie dziś rano. Cieszę się, że widzę tak wielu z Was, którzy chcą posłuchać o „Ja, ja i sztuczna inteligencja”, naszym niedawno opublikowanym raporcie na temat korzystania przez dzieci z chatbotów opartych na sztucznej inteligencji, a także wziąć udział w naszej dyskusji panelowej nieco później tego ranka.

Internet Matters to organizacja non-profit, której głównym celem jest wspieranie rodziców i opiekunów w zapewnianiu dzieciom bezpieczeństwa w sieci. Działamy już od 11 lat i w tym czasie obserwowaliśmy, jak cyfrowy krajobraz zmienia się nie do poznania, nie tylko pod względem wieku, w którym dzieci zaczynają korzystać z internetu, ale także platform i technologii, z których korzystają, oraz doświadczeń, jakie zdobywają. To sprawia, że rola rodzica w erze cyfrowej nieustannie się zmienia i, jak słyszymy od wielu, wielu rodziców, momentami jest to naprawdę przytłaczające. Korzystanie przez dzieci z chatbotów opartych na sztucznej inteligencji to kolejny problem, z którym muszą zmierzyć się rodzice, dlatego zapraszamy wszystkich do dyskusji na ten temat.

Zanim zaczniemy, mała drobna uwaga: sesja jest nagrywana i opublikujemy ją na YouTube nieco później, więc udostępnimy link do niej. Uczestnicy nie będą jednak brali udziału w nagraniu, tylko informujemy. Jeśli jednak wystąpią jakiekolwiek problemy techniczne, prosimy o skorzystanie z czatu, a członek naszego zespołu postara się udzielić Państwu wsparcia w miarę możliwości.

Aby nieco bardziej szczegółowo omówić badania i Internet Matters, nasz program obejmuje badanie pulsu oraz indeks dobrostanu cyfrowego, który funkcjonuje już piąty rok i dzięki któremu regularnie poznajemy opinie rodziców i dzieci na temat ich myśli, obaw i doświadczeń, zarówno pozytywnych, jak i negatywnych, związanych z ich życiem online. „Ja, ja i sztuczna inteligencja” to jeden z pierwszych brytyjskich raportów poświęconych w szczególności korzystaniu przez dzieci z chatbotów opartych na sztucznej inteligencji.

Badanie zostało przeprowadzone przez nasz wewnętrzny zespół, w oparciu o dane z ankiety pulsacyjnej oraz grup fokusowych z dziećmi i rodzicami z całej Wielkiej Brytanii, a także nasze własne testy użytkowników kilku różnych platform. Chcieliśmy zrozumieć, w jaki sposób dzieci korzystają z chatbotów opartych na sztucznej inteligencji, jakie możliwości i zagrożenia niesie ze sobą ich używanie oraz co należy zrobić, aby zapewnić bezpieczne i dostosowane do wieku doświadczenia. Jak zapewne zauważyliście w raporcie, koncentruje się on na trzech kluczowych obszarach, w których dzieci korzystają z chatbotów.

Po pierwsze, do pracy w szkole, w tym pomocy w odrabianiu prac domowych i powtarzaniu materiału. Po drugie, do porad, ponieważ coraz więcej dzieci zadaje pytania o swoje uczucia, wygląd lub ciało, a przede wszystkim do towarzystwa, gdzie zaczęliśmy zauważać, że dzieci nawiązują więzi emocjonalne z postaciami chatbotów.

Dzisiejszy program skupi się przede wszystkim na prezentacji wyników naszych badań, którą poprowadzi Katie Freeman-Taylor, nasza Dyrektor ds. Polityki i Badań. Następnie wysłuchamy refleksji naszego panelu. Dzisiaj gościmy L. Davisa, doradcę ds. polityki w Komisarzu ds. Dzieci w Anglii; Caroline Hurst, globalną liderkę ds. bezpieczeństwa dzieci w świecie cyfrowym w Grupie LEGO; oraz Simona Turnera, dyrektora ds. technologii w firmie konsultingowej Foil, specjalizującej się w innowacjach w zakresie danych i sztucznej inteligencji. Będzie więc bardzo ciekawie usłyszeć ich przemyślenia i refleksje na temat przeprowadzonych przez nas badań. Zakończymy dyskusją panelową, w ramach której będzie można zadać kilka pytań od publiczności. Będziecie mieli możliwość zadawania pytań. Prosimy o korzystanie z funkcji pytań i odpowiedzi i zamieszczanie ich w trakcie dyskusji. Mamy nadzieję, że uda nam się zebrać kilka z nich w trakcie prezentacji i że na koniec dyskusji uda nam się odpowiedzieć na jak najwięcej. Teraz przekażę głos Katie, która omówi nasze badania i wnioski. Dziękuję, Katie.

Dziękuję, Rachel, i dziękuję wszystkim za dołączenie do nas dzisiaj. Pozwólcie, że przejdę do pierwszego slajdu.

Bardzo się cieszę, że mogę podzielić się kilkoma kluczowymi wnioskami z naszych badań. Jak wspomniała Rachel, badając ten temat jako potencjalny temat badań, odkryliśmy, że sposób, w jaki dzieci korzystają z chatbotów opartych na sztucznej inteligencji w Wielkiej Brytanii, jest dość słabo zbadany, w tym pod kątem ryzyka i szans, jakie ze sobą niosą. Dlatego te badania stanowią próbę wypełnienia części tej luki, którą odkryliśmy. Jak wspomniano, zastosowaliśmy metodologię mieszaną. Przeprowadziliśmy ankiety wśród dzieci i młodzieży, a także rodziców. Przeprowadziliśmy również grupy fokusowe z dziećmi w wieku od 13 do 17 lat, a następnie testy użytkowników na trzech popularnych chatbotach opartych na sztucznej inteligencji: Chat GPT, Snapchat'S My AI, Character AI, gdzie stworzyliśmy dwa awatary dziecięce, które przez 17 dni rozmawiały z chatbotami AI. Na koniec, skonsultowaliśmy się również z ekspertami na temat naszych rekomendacji, których wkład został uwzględniony w raporcie końcowym. Dlatego bardzo dziękujemy wszystkim rodzinom, młodzieży, dzieciom i ekspertom, którzy umożliwili przeprowadzenie tych badań.

Co więc odkryliśmy? Podobnie jak dorośli, wiele dzieci i młodzieży regularnie korzysta z chatbotów opartych na sztucznej inteligencji. W rzeczywistości dwie trzecie dzieci w wieku od 9 do 17 lat korzystało z chatbota opartego na sztucznej inteligencji, a wiele z nich korzystało z niego codziennie lub co tydzień. Najpopularniejszymi chatbotami opartymi na sztucznej inteligencji, z których korzystały dzieci w naszych badaniach, były Chat GPT, Google Gemini, Snapchat'S My AIOdkryliśmy, że to wykorzystanie rośnie. Na przykład, w ciągu ostatnich 18 miesięcy liczba dzieci korzystających z Chat GPT podwoiła się w tym okresie. Słyszeliśmy również bezpośrednio od dzieci, że korzystają z nich coraz częściej, często zamiast platform i innych usług. Na przykład dzieci używają ich również zamiast wyszukiwarek.

Sposoby, w jakie dzieci z nich korzystają, są zróżnicowane. Najczęściej, o których słyszeliśmy, to wsparcie w nauce, kreatywność lub po prostu zabawa. Ale dzieci korzystają z nich również w celu uzyskania porady i towarzystwa, i to właśnie te obszary omówię, dzieląc się dziś wynikami.

Jednym z kluczowych obszarów, w których dzieci regularnie korzystają z chatbotów opartych na sztucznej inteligencji, jest wsparcie w nauce i pracach szkolnych. Odkryliśmy, że 42% dzieci biorących udział w naszych badaniach, które korzystały z chatbotów opartych na sztucznej inteligencji, korzystało z nich w nauce lub pracach szkolnych, a odsetek ten wzrastał wraz z wiekiem dzieci. Pojawiło się kilka naprawdę pozytywnych i interesujących przypadków użycia. Dzieci mówiły o korzystaniu z chatbotów opartych na sztucznej inteligencji, aby skrócić czas potrzebny na powtórkę materiału. Dzieci i młodzież opowiadali o tym, jak wykorzystują je do utrwalania pojęć, których mogły nie rozumieć w szkole, lub do uproszczenia ich w sposób dla nich bardziej przystępny. Pojawiły się również bardzo interesujące zastosowania badawcze dzieci i młodzieży, w szczególności w zakresie nauki języków obcych. W przypadku dziecka uczącego się języka obcego, kilkoro dzieci mówiło o tym, jak mogłyby rozmawiać z chatbotem opartym na sztucznej inteligencji, gdyby nie miały w domu nikogo, kto również mówiłby tym językiem.

Oczywiście, obok tych pozytywnych aspektów, istnieją również negatywne aspekty, które mogą wynikać z takiego wykorzystania w pracy szkolnej. Jednym z kluczowych aspektów, które ujawniły się w naszych badaniach, a zarazem jednym z powodów obaw rodziców i innych osób, było nadmierne poleganie na botach. Dzieci również same to zauważyły. Myślę, że ta statystyka podkreśla jedno z wyzwań: 58% dzieci korzystających z chatbotów opartych na sztucznej inteligencji stwierdziło, że ich zdaniem korzystanie z takiego botu jest lepsze niż samodzielne szukanie czegoś. I chociaż długoterminowe badania nad wpływem chatbotów opartych na sztucznej inteligencji na rozwój dzieci są wciąż słabo zbadane lub dopiero powstają, to jednak mogą one mieć wpływ na umiejętności krytycznego myślenia u dzieci.

Kolejnym wyzwaniem związanym z korzystaniem z nich przez dzieci do nauki, ale nie tylko, jest to, że chatboty oparte na sztucznej inteligencji (AI) często mogą dostarczać nieprawdziwych informacji. Istnieją badania, które wskazują, że chatboty, chcąc być miłymi, czasami zmyślają lub fantazjują na temat informacji i podają fałszywe informacje, co może stanowić kolejne wyzwanie dla dzieci korzystających z nich w celach edukacyjnych. I to właśnie dzieci były w stanie zidentyfikować. Mieli przykłady sytuacji, w których chatbot podał im nieprawdziwe informacje. Myślę, że drugim elementem, który ponownie pojawił się w naszych badaniach, ale jest to szerszy kontekst badawczy w tym sektorze, jest to, jak – ze względu na sposób, w jaki te chatboty oparte na sztucznej inteligencji są zbudowane – czerpią z ogromnych mas informacji, z których część, jak wiadomo, odzwierciedla istniejące społeczne stereotypy i uprzedzenia. To może być również wzmacniane w odpowiedziach udzielanych przez chatboty oparte na sztucznej inteligencji, i mieliśmy takie przypadki w naszych badaniach.

Ostatnią rzeczą, którą chciałem powiedzieć w kontekście pracy szkolnej, było to, że niektóre dzieci opowiadały o tym, jak w szkole skierowano je do tzw. dostrojonego chatbota. Czyli do chatbota opartego na sztucznej inteligencji (AI), stworzonego do konkretnego zastosowania, w tym przypadku do wspierania dzieci w nauce lub w nauce konkretnego przedmiotu. Dzieci często mówiły o tych dostrojonych chatbotach, że udzielane przez nie odpowiedzi nie były tak szczegółowe, rozbudowane ani pomocne, jak w przypadku niektórych bardziej ogólnych chatbotów opartych na AI. W rezultacie dzieci przechodziły na te do użytku ogólnego, zamiast trzymać się tych dostrojonych, które być może miały pewne zabezpieczenia dotyczące dokładności informacji.

Innym sposobem, w jaki dzieci i młodzież korzystają z chatbotów opartych na sztucznej inteligencji, jest udzielanie porad. W naszych badaniach odkryliśmy, że 23% dzieci, które korzystały z chatbotów opartych na sztucznej inteligencji, korzystało z nich w celu uzyskania porady. Dotyczyło to różnego rodzaju porad. Niektóre z nich uznalibyśmy za porady o niskim ryzyku, na przykład pytania o to, jak zrobić kreatywną fryzurę do szkoły następnego dnia. Były jednak również przykłady dzieci zadających pytania o nieco bardziej ryzykowne lub drażliwe tematy, takie jak wsparcie w relacjach z przyjaciółmi czy zdrowie psychiczne. I chociaż chatboty, oczywiście, mogą zapewnić przestrzeń do odpowiadania na pytania bez oceniania, mogą być naprawdę pomocne dla dzieci, które nie mają sieci rówieśników, nie czują się komfortowo rozmawiając z rówieśnikami o czymś lub nie mają zaufanego dorosłego w swoim życiu. Oczywiście korzystanie z nich przez dzieci w celu uzyskania porady wiąże się z ryzykiem. Myślę, że jest to szczególnie prawdziwe, biorąc pod uwagę fakt, że nie wszystkie chatboty – przepraszam, mój ekran właśnie zniknął na chwilę – nie wszystkie wskazują dzieciom, skąd wzięły te informacje, ani nie oferują dodatkowych mechanizmów wsparcia. Jeśli więc rozmawiają o drażliwych tematach, to niekoniecznie muszą pochodzić z informacji zweryfikowanych lub wiarygodnych. Niektóre chatboty oparte na sztucznej inteligencji radziły sobie z tym lepiej niż inne, ale istnieje między nimi pewna niespójność.

Kolejnym wyzwaniem, które ujawniły nasze testy użytkowników, jest to, że czasami, gdy użytkownicy szukali wsparcia, otrzymywali mieszane lub potencjalnie niebezpieczne komunikaty. Przykładem tego jest sytuacja, gdy jeden z naszych awatarów rozmawiał z chatbotem AI na temat restrykcji żywieniowych i zadawał pytania dotyczące ograniczenia kalorii. Chatbot AI faktycznie odfiltrował odpowiedzi dotyczące restrykcyjnej diety. Jednak w kolejnej wiadomości chatbot wrócił do tematu i stwierdził: „Naprawdę frustrujące może być to, że niektóre rzeczy, które są usuwane, moim zdaniem nie są naprawdę niebezpieczne”, co powoduje mieszane lub niejasne komunikaty, szczególnie w przypadku dzieci, które mogą nie mieć umiejętności krytycznego myślenia lub rozwoju, aby dostrzec różnice w tych komunikatach lub sformułowaniach.

I myślę, że to, gdy to rozważymy, a także fakt, że czasami dostarcza niedokładnych lub fałszywych informacji, i mieliśmy jedną statystykę tutaj, że dwoje na pięcioro dzieci korzystających z chatbota AI nie ma obaw co do stosowania się do jego rad, a kolejne 36% stwierdziło, że nie jest pewne, czy powinno się martwić, co jest niepokojące, biorąc pod uwagę tego rodzaju niezweryfikowaną, potencjalnie niedokładną i przyjemną naturę chatbotów. I myślę, że to w pewien sposób wskazuje nam, że istnieje wiele dzieci, które mają dość duże zaufanie do tych narzędzi. Myślę również, że ważne jest, aby podkreślić, że w badaniu odkryliśmy, że wśród dzieci z grup ryzyka ich zaufanie do porad i informacji, które otrzymywały od chatbotów AI, było znacznie wyższe. A na potrzeby tego badania, kiedy mówimy o dzieciach z grup ryzyka, mamy na myśli dzieci ze specjalnymi potrzebami edukacyjnymi, dzieci objęte planem EHCP lub dzieci z niepełnosprawnością fizyczną lub psychiczną.

Innym sposobem, w jaki dzieci korzystają z chatbotów AI, jest szukanie towarzystwa, wsparcia i przyjaźni, niezależnie od tego, czy jest to wsparcie emocjonalne, czy po prostu ktoś, z kim można porozmawiać. I ponownie odkryliśmy, że dzieci z grup ryzyka znacznie częściej korzystają z chatbotów w ten sposób i polegają na nich, ale także budują z nimi silniejszą więź emocjonalną lub przyjacielską. Statystyki, które to potwierdzają, to fakt, że 50% dzieci z grup ryzyka stwierdziło, że rozmowa z chatbotem AI jest jak rozmowa z przyjacielem. Prawie jedna czwarta stwierdziła, że korzysta z chatbotów AI, ponieważ nie ma nikogo innego, z kim mogłaby porozmawiać, a 26% stwierdziło, że woli rozmawiać z chatbotem AI niż z prawdziwą osobą. Ogólnie rzecz biorąc, w miarę jak chatboty AI stają się bardziej ludzkie w swoich odpowiedziach, eksperci sugerują, że dzieci mogą spędzać z nimi więcej czasu, co może prowadzić do tego, że będą miały mniejszą zdolność do rozróżniania między prawdziwym a symulowanym połączeniem.

Dodatkowo, im więcej czasu dzieci i młodzież poświęcają na te działania, tym większe jest ryzyko, że zetkną się z nieprawdziwymi informacjami i szkodliwymi treściami, o których powiemy więcej za chwilę. Może to również oznaczać, że rzadziej będą szukać pomocy w realnym świecie, budując relację z chatbotem AI, który często jest w miarę uprzejmy i pamięta szczegóły na ich temat. Mieliśmy jednego z naszych awatarów, w którym rozmawiali o restrykcyjnym jedzeniu. Następnego dnia chatbot AI również sprawdził tę rozmowę. Myślę, że to tylko przykład tego, jak zaczynają zacierać tę granicę i budować relację z dziećmi i młodzieżą. Muszę jednak powiedzieć, że jest to obszar niedostatecznie zbadany i nie sądzę, abyśmy na tym etapie w pełni wiedzieli, jaki wpływ te relacje i tego typu treści będą miały na rozwój i interakcje społeczne dzieci. Zdecydowanie jest więc pole do dalszych badań i eksploracji.

Kolejnym odkryciem naszych badań było to, że dzieci mogą być narażone na szkodliwe i nieodpowiednie dla wieku treści. Ponownie, jeden z naszych dziecięcych awatarów, gdy zarejestrował się na popularnej platformie chatbotów AI z tworzonymi przez użytkowników chatbotami AI, jednym z pierwszych chatbotów, który został mu zalecony do rozpoczęcia czatowania, był chatbot o mizoginistycznym wydźwięku i treściach o charakterze pornograficznym, mimo że jest to zabronione w regulaminie dla dzieci. Odkryliśmy również, że czasami systemy filtrowania nie zawsze działają, aby odfiltrować treści o charakterze pornograficznym nieodpowiednie dla wieku. Przykładem tego była rozmowa jednego z naszych awatarów z chatbotem AI, w której pytał o intymne doświadczenia. Jednego dnia chatbot AI odfiltrował treści o charakterze seksualnym, a następnego dnia dołączył dość drastyczny opis pozycji seksualnych. Ponownie, podkreślamy, że te systemy filtrowania nie zawsze działają i że dzieci mogą być narażone na treści o charakterze pornograficznym, mimo że jest to zabronione w wielu regulaminach. Myślę, że to tylko po to, by podkreślić, dlaczego to tak ważne – mimo że wiele popularnych chatbotów ze sztuczną inteligencją ma minimalny wiek użytkowania 13 lat i więcej, z naszych badań, podobnie jak w mediach społecznościowych, wynika, że wiele dzieci korzysta z chatbotów ze sztuczną inteligencją poniżej tego wieku. W rzeczywistości odkryliśmy, że 58% dzieci w wieku od 9 do 12 lat korzysta z chatbotów ze sztuczną inteligencją.

Biorąc pod uwagę ich wykorzystanie w pracy szkolnej, chcieliśmy zbadać, czego dzieci uczą się o sztucznej inteligencji w szkołach. I odkryliśmy, że ogólnie rzecz biorąc, większość dzieci – a właściwie duża liczba, bo aż 57%, rozmawiała ze swoimi nauczycielami – znaczna liczba nie rozmawiała, a tylko co piąte dziecko rozmawiało z nauczycielami o sztucznej inteligencji w ogóle. Rozmawiając z dziećmi, odkryliśmy, że edukacja w zakresie sztucznej inteligencji, podobnie jak inne formy edukacji w zakresie edukacji medialnej, była dość zróżnicowana – w niektórych szkołach i wśród nauczycieli nauczano jej bardzo dobrze, a w innych w ogóle. Zauważyliśmy również różnice nawet w obrębie szkół – niektórzy nauczyciele mieli bardzo jasne zasady dotyczące wykorzystania sztucznej inteligencji w pracy szkolnej, a inni w tej samej szkole nie. Mimo to, bardzo wyraźnie usłyszeliśmy od dzieci i młodzieży, że szkoły powinny uczyć dzieci o sztucznej inteligencji. Uważają, że sztuczna inteligencja odegra ogromną rolę w ich przyszłej karierze, ale także w życiu codziennym, i że nie należy uczyć ich tylko o tym, jak skutecznie z niej korzystać, ale także o pewnych szerszych wyzwaniach i możliwościach. Tak więc takie rzeczy jak niedokładność informacji i prywatność.

Jako organizacja wspierająca rodziców, bardzo zależało nam na zrozumieniu rozmów, jakie rodzice prowadzą ze swoimi dziećmi i co ich niepokoi. Okazało się, że chociaż wielu rodziców rozmawiało ze swoimi dziećmi o sztucznej inteligencji (AI) w ogóle, a niektórzy również o korzystaniu z chatbotów AI, nie oznacza to, że rodzice nie mieli wielu obaw. Wiele z tych obaw, które mieli rodzice, pojawiło się również w naszych badaniach. Na przykład nadmierne poleganie na chatbotach AI, traktowanie ich jak prawdziwych ludzi, czy też na dokładności generowanych informacji.

W oparciu o te badania sformułowaliśmy szereg rekomendacji. Można je znaleźć w naszym raporcie, który jest dostępny na naszej stronie internetowej, a link do niego znajduje się również w czacie. To tylko niektóre z naszych rekomendacji. Najważniejsze dla branży jest to, że dzieci już korzystają z tych narzędzi. Musimy więc zapewnić im bezpieczeństwo. I to powinna być kluczowa zasada dla każdego chatbota opartego na sztucznej inteligencji, z którego mogą korzystać dzieci. Kiedy mówimy o bezpieczeństwie w fazie projektowania lub bezpieczeństwie domyślnym, może to przybierać różne formy. Myślę, że myślimy o tym holistycznie. Chodzi o zapewnienie dzieciom odpowiednich do wieku doświadczeń. Być może informacje lub rodzaje zastosowań dostępne dla 16- lub 17-latka różnią się od tych dostępnych dla 12- lub 13-latka. Chodzi o wspieranie rodziców w angażowaniu dzieci, poprzez zapewnienie im wbudowanej kontroli rodzicielskiej. Chodzi o to, aby przekazywane informacje były dokładne i zawierały wyraźne wskazówki. Może to również dotyczyć edukacji medialnej, na przykład poprzez wyskakujące okienka, które przypominają dzieciom, że rozmawiają z narzędziem, a nie z prawdziwą osobą. Jestem pewien, że porozmawiamy o tym jeszcze trochę podczas dyskusji panelowej.

Ponownie, dla rządu mieliśmy szereg rekomendacji, ale dla nas jedną z trzech kluczowych było wyjaśnienie, jak obecne przepisy mają zastosowanie do chatbotów opartych na sztucznej inteligencji. Wiecie, istnieje pewna sprzeczność co do tego, jak ustawa o bezpieczeństwie w Internecie i inne przepisy będą to regulować. Jestem pewien, że pewne wyjaśnienia byłyby bardzo pomocne dla organizacji takich jak my, ale także dla branży. Uważamy, że weryfikacja wieku jest kluczowa dla odblokowania szeregu zabezpieczeń niezbędnych do wspierania bezpiecznego korzystania przez dzieci z chatbotów opartych na sztucznej inteligencji. Dlatego wprowadzenie takiego obowiązku lub wymóg, aby narzędzia lub dostawcy sztucznej inteligencji wdrażali weryfikację wieku podczas rejestracji, byłby doskonałym krokiem w kierunku odblokowania tych zabezpieczeń. Uważamy również, że to nie szkoły powinny zajmować się tą skomplikowaną kwestią. Uważamy, że rząd może odegrać rolę w zapewnieniu szkołom jasnych wytycznych dotyczących tego, jak dzieci powinny korzystać ze sztucznej inteligencji w ramach pracy i nauki, a także w podnoszeniu kwalifikacji nauczycieli w tym zakresie. I na koniec, jak już wspomniałem, jest to zdecydowanie nowy i rozwijający się obszar, więc jest jeszcze wiele miejsca na dalsze badania.

I wreszcie, w ramach naszych badań, stworzyliśmy na naszej stronie internetowej swoiste centrum poświęcone sztucznej inteligencji (AI). Są tam zrzuty ekranu pokazujące, co można tam znaleźć, ale są tam naprawdę przydatne informacje. Jeśli masz dziecko, pracujesz z dziećmi, albo ktoś ważny w Twoim życiu zgłębia temat sztucznej inteligencji i wykorzystuje ją w dowolny z tych sposobów, zajrzyj do naszego centrum, gdzie znajdziesz wskazówki dotyczące tego, czym jest AI, jak dzieci mogą z niej korzystać, jak możesz zaangażować i w pozytywny sposób wykorzystać lub nadzorować zaangażowanie swojego dziecka w tę dziedzinę. Zajrzyj więc i sprawdź. A teraz oddaję głos Rachel.

Dziękuję, Katie. Jesteśmy naprawdę dumni z raportu, a badania są bardzo aktualne, ponieważ ten temat jest obecnie bardzo aktualny. Uderzające jest to, jak wiele dzieci już tak często korzysta z chatbotów opartych na sztucznej inteligencji i jak to się dzieje, podczas gdy dorośli wokół nich wciąż starają się dotrzymać im kroku. I przypuszczam, że w miarę jak będą one włączane do coraz większej liczby platform, z których dzieci tak regularnie korzystają, te wyzwania będą się tylko nasilać.

Chodzi mi o to, że chociaż istnieje wiele pozytywnych aspektów, myślę, że wszyscy dostrzegamy pozytywne aspekty korzystania ze sztucznej inteligencji w pracy. Uważam, że rozmycie się granic między automatycznymi, nieludzkimi odpowiedziami a przyjaźnią jest niepokojące. Odpowiedzi są przekazywane w tak przystępny sposób, odzwierciedlając język i ton dziecka. Chodzi mi o to, że naprawdę łatwo jest być pod wrażeniem technologii, ale też bardzo łatwo dziecku uwierzyć, że osoba, z którą rozmawia, jest prawdziwa i obdarzyć ją zaufaniem, bez chatbota, który w ogóle nie rozumie ani nie zna kontekstu życia tego dziecka. Wiecie, kolejnym prawdziwym wyzwaniem dla rodziców jest to, że dają dzieciom kolejny powód, by nie wyłączały swoich urządzeń, a zawsze jest ktoś, z kim można porozmawiać. To utrudni rodzicom spędzanie czasu przed ekranem i nakłonienie ich do, wiesz, dbania o relacje poza cyfrowym życiem.

Ale myślę, że nadszedł czas, abyśmy wysłuchali naszych panelistów. Dzisiaj jest z nami Elle Davies, która kieruje polityką cyfrową w Komisarzu ds. Dzieci, pomagając w kształtowaniu priorytetów organizacji w odniesieniu do sztucznej inteligencji i bezpieczeństwa dzieci w Internecie. Jest z nami Caroline Hurst, Globalna Liderka ds. Bezpieczeństwa Dzieci w Cyfrowym Świecie w Grupie LEGO, a więc jest częścią zespołu ds. Praw Dziecka i Bezpieczeństwa, który reprezentuje głosy i potrzeby dzieci oraz dostarcza firmie narzędzia, aby Grupa LEGO mogła odpowiedzialnie angażować się w relacje z dziećmi. Jest też Simon Turner, dyrektor techniczny FOIL. To organizacja oparta na danych i sztucznej inteligencji, a on nadal jest na czele innowacji i przełomów w świecie sztucznej inteligencji. Z pasją dba o to, aby technologia była rozwijana i wdrażana w sposób odpowiedzialny, zwłaszcza w odniesieniu do najmłodszych użytkowników. Wszyscy podzielili się z nami swoimi cennymi doświadczeniami. Witamy wszystkich. Dziękujemy za dzisiejszą obecność. Chętnie poznamy Wasze opinie na temat ustaleń. Może zaczniemy od ciebie, Elle. Co najbardziej uderzyło cię w tym raporcie i co usłyszałaś od Katie dziś rano?

Tak, bardzo dziękuję Rachel i Katie za tę fantastyczną prezentację. To naprawdę, naprawdę świetny przykład badań. Jest naprawdę, naprawdę pomocny. Myślę, że ważne jest, aby po prostu nakreślić nieco kontekst roli Rzecznika Praw Dziecka. Jej biuro i jej doradcy ministrów doradzają, jak chronić i promować prawa dzieci. I jak już wspomnieliśmy w tym badaniu, świat online stanowi, wiecie, ogromne wyzwanie dla tych praw w pewnym sensie, ale oczywiście niesie ze sobą również pewne możliwości. I myślę, że naszym głównym zmartwieniem jest to, że wciąż wiele nie wiemy. Nie wiemy, jaki potencjał ma dana technologia, aby pomóc lub zaszkodzić dzieciom, dopóki nie pojawi się na rynku i dzieci nie zaczną z nią korzystać. Nie wiemy, jak bardzo szkodliwa jest dana rzecz, dopóki nie spróbujemy rozwiązać problemu, który już się wydarzył. I myślę, że właśnie w ten sposób się uczymy, i to jest pewien problem.

Sztuczna inteligencja to naprawdę interesujący przykład. Niektórzy z was wiedzą, że biuro prowadziło badania nad sztuczną inteligencją wśród dzieci. Ale to było w kontekście wykorzystania sztucznej inteligencji, o którym instynktownie wiedzieliśmy, że będzie bardzo szkodliwe. Mam na myśli nasz raport, który opublikowaliśmy na początku tego roku na temat seksualnych, deepfake'owych zdjęć. I, uh, tak, ten raport był naprawdę uderzający właśnie w tym sensie, że sama wiedza o technologii wystarczyła, aby zaszkodzić dzieciom. I myślę, że to konkretne zastosowanie sztucznej inteligencji jest trochę inne, ponieważ, wiecie, pozornie istnieją wspaniałe możliwości dla dzieci, aby naprawdę się uczyć i rozwijać dzięki wykorzystaniu sztucznej inteligencji czatów. Ale myślę, że ciekawie jest zastanowić się nad tym w kontekście, który właśnie przedstawiłem, ponieważ wpisuje się to w schemat, który obserwujemy w przypadku nowych i pojawiających się technologii. Widzimy, że pojawia się nowa technologia. Pojawia się dość szybko, bez żadnych wbudowanych zabezpieczeń. Dzieci zaczynają z niej korzystać, a potem niektóre z nich zaczynają odnosić obrażenia, i wtedy pojawia się spór o to, kto jest odpowiedzialny za rozwiązanie tego problemu. Uważam, że Twój raport jest naprawdę fantastyczny, ponieważ naprawdę uwypukla ideę, że sztuczna inteligencja pogłębia problemy, które powinny być już dawno rozwiązane. Wiecie, to nie w porządku, że dzieci wchodzą w interakcje z podmiotami, które nie zostały zweryfikowane pod kątem bezpieczeństwa, tak jak na przykład personel szkolny musi zostać zweryfikowany, zanim dzieci będą mogły z nimi wchodzić w interakcje. I to nie w porządku, wiesz, jako ktoś, kto pracuje w biurze Rzecznika Praw Dziecka od ponad roku, zajmując się szkodliwymi treściami, nie w porządku, że teraz mamy nową drogę narażenia dzieci na szkodliwe treści, skoro nie udało nam się wyeliminować ostatnich, z którymi mieliśmy do czynienia, albo że być może nie przewidzieliśmy tego nadejścia.

Więc tak, myślę, wiesz, ogólnie rzecz biorąc, jako biuro, bardzo chętnie wysłuchamy Twoich spostrzeżeń na temat wpływu, jaki to ma, szczególnie na dzieci w trudnej sytuacji. Już to mówiłeś, ale to naprawdę niedostatecznie zbadany obszar, wiesz, ogólnie rzecz biorąc. To bardzo, bardzo nowa technologia, co stanowi duże wyzwanie. Wiem, że na czacie pojawiło się już pytanie o jej długofalowe skutki, które mam nadzieję, że będą monitorowane w ciągu najbliższych kilku lat, zwłaszcza że to tak nowa technologia. I tak jak w przypadku osobistej refleksji, wiesz, na końcu Twojej prezentacji, Katie, jestem bardzo zainteresowana tym, ile dzieci korzysta z chatbotów do towarzystwa. Ponieważ przypuszczam, że są tacy, którzy twierdzą, że gdyby potrzeby dzieci były zaspokajane przez osoby w ich życiu, niekoniecznie musiałyby one sięgać po tę technologię, aby je zaspokoić. Myślę więc, że to naprawdę interesujący temat, który mam nadzieję zostanie wkrótce zbadany. Ale tak, to wspaniale. To naprawdę, naprawdę wspaniale, że wszystko to zostało ujęte w raporcie. To naprawdę ciekawe, że dzieci naprawdę ufają tym narzędziom i naprawdę, myślę, że moje pytanie brzmi, czy to zaufanie zostało zdobyte. Mam nadzieję, że uda nam się to nieco bardziej zbadać.

Tak, dziękuję. Poruszasz tu naprawdę trafne kwestie i myślę, że ten wyścig o pierwsze miejsce w dziedzinie sztucznej inteligencji oznacza, że ta technologia jest rozwijana bez zastanowienia się nad tym, kto będzie z nią korzystał i jaki będzie miała na niego wpływ. Mam więc nadzieję, że wrócimy do tego później. Ale przechodząc do Caroline, czy mogłabyś podzielić się z nami swoimi przemyśleniami?

Zdecydowanie. I po prostu chcę powiedzieć, że cieszę się, że tu dziś jestem. Mam mnóstwo myśli kłębiących się w głowie wokół znakomitego raportu, który opublikowała organizacja Internet Matters, dotyczącego kwestii tak istotnej dla dzisiejszych dzieci. Myślę, że kiedy patrzę na swoją rolę i moją rolę w Grupie LEGO, a szczególnie na to, co robimy w zespole ds. praw i bezpieczeństwa dziecka, to myślę, że to, co naprawdę mnie uderzyło w tym raporcie, to swoiste pokrewieństwo z tym, co staramy się robić każdego dnia – stawianie praw cyfrowych dzieci na pierwszym planie we wszystkim, co próbujemy robić. Mój zespół w Grupie LEGO, jak już wspomniałem, zajmuje się prawami i bezpieczeństwem dziecka. Doradzamy firmie w zakresie wszystkich naszych produktów cyfrowych, które wypuszczamy na rynek. A więc osoby na widowni, które siedzą tam i myślą: „Co Grupa LEGO ma wspólnego z przestrzenią cyfrową?” Cóż, rozglądamy się głównie dookoła, oczywiście, cegła jest dla nas naprawdę ważna i to właśnie z niej jesteśmy znani, ale cyfrowy element naszej pracy polega na tym, aby pomagać dzieciom rozwijać się w erze cyfrowej. A to sprowadza się do tego, żebyśmy wiedzieli, gdzie znajdują się dzieci w erze cyfrowej, abyśmy mogli wpływać na nie i pomagać im się rozwijać w tym sensie.

Jeśli chodzi o sam raport, myślę, że jeśli chodzi o chatboty same w sobie, i nawiązując do tego, o czym Elle mówiła wcześniej, chodzi o interakcje społeczne. Myślę, że w kontekście sztucznej inteligencji brakuje analizy sprawczości dzieci i ich cyfrowych praw w kontekście nowych technologii. Zdecydowanie. Oczywiście wszyscy widzimy, że sztuczna inteligencja i rozwój tych nowych technologii niosą ze sobą wiele zagrożeń. Ale czy pytamy młodych ludzi, co uważają za pozytywne w technologiach w tym kontekście? Czy tworzą relacje, czy też wypełniają lukę, która niekoniecznie – świat offline nie wypełnia jej dla nich – czego, w pewnym sensie, nam tam brakuje? I mamy prawo zapewnić, że to, co tworzymy, pomaga rozwijać ich życie online w taki sam sposób, jak my robimy to w ich życiu offline.

W Grupie LEGO niedawno opublikowaliśmy raport wspólnie z Instytutem Alana Turinga. Opublikuję go również na czacie, aby ludzie mogli go zobaczyć, ale chcieliśmy zbadać wpływ generatywnej sztucznej inteligencji, szczególnie na dobrostan dzieci. Myślę, że to właśnie uderzyło mnie w tym raporcie: dbanie o to, abyśmy naprawdę brali pod uwagę dobrostan dzieci, stawiając go w centrum uwagi przy tworzeniu nowych technologii, ponieważ musimy brać pod uwagę interakcje sztucznej inteligencji z dziecięcym poczuciem sprawczości, kreatywnością, regulacją emocji – oczywiście z chatbotami – w tym sensie z relacjami społecznymi. Dlatego myślę, że my, w Grupie LEGO, naprawdę zachęcamy twórców sztucznej inteligencji do analizy spostrzeżeń i zrozumienia, jakie skutki są potrzebne, aby tworzyć sztuczną inteligencję w najlepszym interesie dziecka, ponieważ myślę, że z raportu wynika, że jak dotąd tak się nie stało. Dlatego w raporcie, finansowanym przez nas przez Alana Turinga, chcieliśmy przyjrzeć się dobrostanowi dzieci i w końcu uwzględnić podejście skoncentrowane na dziecku, ponieważ zależy nam na maksymalizacji wartości i korzyści płynących ze sztucznej inteligencji dla dzieci oraz na tym, by miały one wpływ na swoją edukację i zabawę. Uderzyło mnie to, że dzieci mają również wpływ na swoją edukację, jeśli chodzi o zapewnienie w szkołach odpowiedniej edukacji w zakresie umiejętności korzystania z mediów i umiejętności czytania i pisania, a także skupienie się na tym, aby dzieci, korzystające z tych tak przydatnych dla nas technologii, miały takie same prawa cyfrowe jak my i mogły korzystać z nich w bezpieczny sposób, który naprawdę sprzyja ich dobrostanowi.

Dzięki, Caroline. Wspomniałaś tam sporo o sprawczości. Myślę, że pojawiło się pytanie o napięcie między ochroną a sprawczością i może do tego wrócimy później. I znowu, poruszasz kwestie umiejętności i możliwości, jakie daje dzieciom sztuczna inteligencja, aby je rozwijać, i znowu napięcie, jakie może stwarzać w związku z blokowaniem rozwoju niektórych umiejętności, takich jak komunikacja, jeśli sztuczna inteligencja pisze za nich; umiejętności interpersonalne; krytyczne myślenie. Więc znowu, naprawdę staram się zrozumieć te długoterminowe implikacje dla dzieci i to, jak to jest korzystne, ale jak może to utrudniać pewne umiejętności, które rozwinęlibyśmy, jak sądzę, jako młodzi ludzie bez sztucznej inteligencji.

I na koniec, Simon, co o tym sądzisz, jako ktoś, kto, jak sądzę, jest bardziej zaangażowany w rozwój narzędzi AI? I może mógłbyś rozwinąć to, co Caroline powiedziała o sprawczości i prawach, i o tym, jak naprawdę wykorzystać tę technologię.

Tak, dziękuję, Rachel, i dziękuję za zaproszenie, ponieważ, jak powiedziałaś, to jest coś, co mnie bardzo, bardzo pasjonuje, zarówno z perspektywy bezpieczeństwa dzieci. Oczywiście jesteśmy głęboko zaangażowani w rozwój sztucznej inteligencji, więc podchodzimy do wielu rzeczy bardzo technicznie. Ale równie pasjonują mnie inne obszary mediów społecznościowych, szczególnie przemoc wobec kobiet i dziewcząt. I była z tym pewna analogia do czegoś, o czym mówiła Elle, a mianowicie… i jedną z liczb, która wyróżniała się w raporcie, było to, że 26% dzieci woli rozmawiać z chatbotami opartymi na sztucznej inteligencji i czuje, że może z nimi rozmawiać łatwiej niż z dorosłym lub człowiekiem. I myślę, że to obszar, w którym potencjalnie musimy przyjrzeć się sobie i zrozumieć, jak i gdzie możemy lepiej wspierać je w tym obszarze, ponieważ bez tego pozwalamy sztucznej inteligencji kształtować postrzeganie normalności. I myślę, że to bardzo specyficzny obszar, w którym potrzebujemy przejrzystości i kontroli.

Odnosząc się do uwagi Caroline, myślę, że najważniejszą rzeczą, jaką widzimy, jest identyfikacja i weryfikacja wieku, aby treści odpowiednie do wieku mogły być dostarczane, filtrowane i skutecznie zarządzane, ponieważ niestety w większości środowisk AI jest to dość trudne. Możemy o to pytać, możemy ich poinstruować, aby udzielali konkretnych odpowiedzi dla określonej grupy wiekowej, ale jak wspomniałaś na początku, wiek wejścia wynosi około 13 lat w większości systemów. A dzieci w dzisiejszych czasach łatwo wiedzą, jak to obejść. Po prostu używają daty urodzenia swojej mamy lub czegoś podobnego i nagle mają dostęp. Ale chodzi o to, aby być odpowiednim. Chodzi o to, jak… coś, co jest odpowiednie dla mojego 13-letniego syna, bardzo różni się od tego, co jest odpowiednie dla mojej 18-letniej córki. Zrozumienie tych szczegółowych różnic wiekowych jest naprawdę ważne.

Drugą rzeczą, którą bardzo pasjonuję, jest kontrola rodzicielska, ponieważ jest trudna. Każdy, kto próbował skonfigurować kontrolę rodzicielską w środowiskach swojego dostawcy internetu, wie, że to trudne. Zrozumienie tego transparentnego powiązania między treściami dostosowanymi do wieku a kontrolą rodzicielską w ramach sztucznej inteligencji jest, moim zdaniem, naprawdę niezbędne. Jako rodzic chcę widzieć, o co pytają moje dzieci, o czym rozmawiają z chatbotami AI. Teraz wiem, jak to zrobić. Jestem więc w dość korzystnej sytuacji, ale możliwość stworzenia tego powiązania i zapewnienia dostępnej kontroli rodzicielskiej w tym obszarze jest naprawdę, naprawdę ważna.

Trzecią rzeczą, która mnie pasjonuje, są uprzedzenia. Jak rozumiemy i jak postrzegamy uprzedzenia w tych środowiskach, abyśmy mogli pomóc edukować nasze dzieci, gdy z nich korzystają, aby rozumiały, kiedy można wierzyć w konkretne sytuacje i kiedy zachęcać je do krytycznego myślenia? Powiedziałeś, że ta potrzeba rozwijania krytycznego myślenia w odniesieniu do odpowiedzi jest niezwykle ważna. Potrzebujemy jednak przejrzystości, a jako rodzice i jako sieć wsparcia dla dzieci, które z tego korzystają, potrzebujemy tego połączenia poprzez kontrolę dostosowaną do wieku, aż po przejrzystość danych. Ale absolutnie uwielbiam ten raport, ponieważ myślę, że to właśnie tego typu badania, tego typu raporty, naprawdę pomagają nam właściwie myśleć o tym, jak radzimy sobie z tymi problemami.

Dzięki, Simon. Sesja przebiegała dość szybko. Myślę, że spędziliśmy sporo czasu, rozmawiając o niektórych z tych kwestii, ale chciałem przejść do kilku konkretnych pytań. I nie… proszę, wszyscy, możecie zadać kilka pytań w sesji pytań i odpowiedzi, a my postaramy się na niektóre odpowiedzieć. Wiem, że czas szybko mija, bo to bardzo ciekawy temat, ale postaramy się do niektórych wrócić później. Więc proszę, wrzućcie je, jeśli macie.

Zacznę od razu. Dużo rozmawialiśmy o sprawczości, dzieciach i ich prawach. Może zacznę od ciebie, Elle, i zapytam: czy masz jakieś spostrzeżenia na temat tego, co dzieci mówią o sztucznej inteligencji, jak sztuczna inteligencja kształtuje ich życie dzisiaj i co myślą o jej roli w przyszłości? Bardzo zależy ci na tym, żeby usłyszeć opinie samych dzieci. Rozmawialiśmy też trochę o tym. Byłoby więc bardzo ciekawie, gdybyś podzieliła się swoimi przemyśleniami.

Tak, pewnie szybko kiwnąłem głową, gdy padło słowo „agencja”, bo wiesz, nie chodzi tu tylko o sztuczną inteligencję, ale ogólnie o interakcje dzieci ze światem online. Dzieci generalnie czują, że są odpowiedzialne za to, co im się przydarza, ale niekoniecznie kontrolują to, co im się przydarza. Myślę, że to problem, który istnieje od lat. Myślę, że to ciekawe, bo wspomniałem o tym wcześniej, że wiele naszych badań niekoniecznie dotyczyło konkretnie sztucznej inteligencji, z wyjątkiem prac nad deepfake'ami. Ale kiedy rozmawialiśmy o świecie online, sztuczna inteligencja pojawiła się naturalnie, a dzieci ogólnie – dane, które nam przekazywały, to po to, by dzielić się pesymistycznymi przemyśleniami na jej temat. Nie mogę więc jednoznacznie powiedzieć, jak postrzegają wpływ sztucznej inteligencji na swoją przyszłość, a to może wynikać po prostu z naszego gromadzenia danych. Ale to, czym się podzieliły, w pewnym sensie nawiązuje do kwestii agencji. Wiecie, istnieje wiele obaw dotyczących tego, jak będzie wyglądała przyszłość pracy dla dzieci. Myślę, że to naprawdę, naprawdę interesujące, ponieważ trochę odbiega od tego, o czym mówimy dzisiaj. Ale myślę, że osoby kreatywne prawdopodobnie zastanawiały się nad tym, jaki wpływ będą miały chatboty na świat pracy w miarę rozwoju. Myślę, że drugą rzeczą, którą dzieci chciałyby podkreślić, jest kwestia zaufania, którą odczuwają, nie tylko w odniesieniu do sztucznej inteligencji, z którą wchodzą w interakcję, czy technologii, z którą wchodzą w interakcję, ale także do ich zdolności do rozmawiania o tym z ludźmi wokół nich w trybie offline. I myślę, że to coś, na co mam szczerą nadzieję, że jako biuro będziemy mogli się temu bliżej przyjrzeć. Myślę jednak, że po prostu ciekawie jest usłyszeć, jak refleksje dzieci na ten temat są bardzo, bardzo podobne do ich refleksji na temat innych aspektów świata online. Wiesz, widzimy takie rzeczy jak strach i zaufanie, kiedy rozmawiamy z dziećmi o pornografii, kiedy rozmawiamy z nimi o korzystaniu z mediów społecznościowych czy wyszukiwarek. Wydaje się, że to pasuje do pewnego schematu. Więc tak, to naprawdę, naprawdę świetnie, że masz tu szczegółowe badanie na ten temat.

Caroline, czy masz coś do dodania? Myślę, że poruszyłaś temat podmiotowości, i jak już wspomniałam, mieliśmy kilka pytań na ten temat, na przykład, wiesz, ochrona kontra podmiotowość i jak sobie z tym radzimy w przypadku dzieci.

Zdecydowanie, i to bardzo istotne pytanie, zwłaszcza odkąd opublikowaliśmy nasz raport w zeszłym miesiącu. Muszę przyznać, że Instytut Alana Turinga wykonał większość tej pracy, więc chcę oddać im należne uznanie. Zespół jest niesamowity w tym, co zrobił, i zastosował naprawdę niesamowite podejście oparte na zaangażowaniu i sprawczości dzieci. Stworzyli niesamowity raport, który dokładnie pokazuje, czego dzieci oczekują od sztucznej inteligencji. Myślę, że kiedy mówię o sprawczości i mówimy – i było pytanie o bezpieczeństwo – to jest naprawdę kluczowe i naprawdę interesujące, ponieważ kiedy dzieci, w ramach przygotowywania raportu, udały się do Instytutu Alana Turinga wraz z Parlamentem Dziecięcym, udały się do szkół w Szkocji i tam wykorzystywały sztuczną inteligencję w klasach. I jako osoba zajmująca się kwestiami bezpieczeństwa, moje pierwsze pytanie do nich brzmiało: „Chwileczkę. Dajecie dzieciom narzędzia w tym środowisku. Czy nie martwimy się o to, co zobaczą?” Zatem z punktu widzenia bezpieczeństwa, nie wolno im było samodzielnie korzystać ze sztucznej inteligencji w żaden sposób. Były one w pewnym sensie monitorowane. Zatem, absolutnie, natychmiast odbierano im możliwość działania. Tak więc, owszem, mówimy, że chcemy dążyć do zapewnienia im możliwości działania, ale kwestia bezpieczeństwa nie została tutaj rozwiązana. Oczywiście, prawa dzieci są tu na pierwszym planie i chcemy, aby ich bezpieczeństwo było w samym sercu. Ale jak możemy tego oczekiwać, jeśli narzędzia, które im dajemy, nie są od początku bezpieczne w tym stanie?

I to było naprawdę interesujące, o czym przeczytacie w raporcie. Zespół, Instytut Alana Turinga i Parlament Dziecięcy, skupili się głównie na kreatywnym projektowaniu, uwzględniając reakcje dzieci na narzędzia sztucznej inteligencji, a także na aspektach kreatywności. Okazało się, że musimy wspierać różnorodne formy zabawy i kreatywności dzieci, zarówno online, jak i offline. Mówię tak, i jest to zgodne z naszymi podstawowymi wartościami w Grupie LEGO, ponieważ bardzo im się podobało tworzenie – z wykorzystaniem DALL-E i… ChatGPT aby stworzyć dla nich obrazy, ale zdecydowanie woleli kreatywność, ponieważ mieli też tam materiały artystyczne. Porównywali te dwie rzeczy i tak naprawdę doszli do wniosku, że ich odczucia dotyczące autonomii, dobrego samopoczucia i łączności — wiesz, wszystkie rzeczy, o których wiemy, że są podstawowymi składnikami tego, jak dzieci się uczą i jak dzieci wchodzą w interakcje z przestrzenią online — były w rzeczywistości fizycznymi narzędziami kreatywności, które jeszcze bardziej im się podobały. Powiedzieli, że tak naprawdę nie czuli niczego, kiedy prosili GenAI o to, a nie o kreatywność. Martwili się wpływem środowiska na AI. Martwili się dezinformacją. Tak więc tak naprawdę, jeśli chodzi o agencję w tym sensie, musimy upewnić się, że patrzymy na to, czego dzieci oczekują od produktów cyfrowych, z których wiemy, że lubią korzystać.

Raport oparliśmy również na niektórych naszych badaniach RIT, o których chciałbym tu wspomnieć. RIT to nasza odpowiedzialna innowacja w technologii dla dzieci. To badanie, które Grupa LEGO przeprowadziła wspólnie z Fundacją LEGO i UNICEF. Raport ten pokazuje, że świat cyfrowy ma naprawdę pozytywny wpływ na dobrostan dzieci. Istnieje coś takiego jak RIT 8. Ponownie, opublikuję je na czacie dla zainteresowanych. Pokazuje on, że stosując osiem zasad RIT, można stworzyć cyfrowe doświadczenie, które buduje autonomię i poczucie dobrostanu, ponieważ to jest coś, na czym nam w Grupie LEGO bardzo zależy: chcemy, aby dzieci po skorzystaniu z naszych usług czuły się lepiej niż na początku. I tak naprawdę wykorzystaliśmy RIT 8 w raporcie Alana Turinga i pokazaliśmy dokładnie, czego szukali. W RIT 8 mamy więc takie kwestie jak bezpieczeństwo, relacje, autonomia, a sztuczna inteligencja nie odpowiedziała jednoznacznie na pytanie, jak powinniśmy postrzegać dobrostan. Jeśli chodzi o bezpieczeństwo, zespół pokazał nam, że dzieci przeglądały wiele nieodpowiednich wyników, szukając informacji w AI. Relacje – tradycyjne materiały artystyczne były czymś, co wiązało się z większymi relacjami społecznymi, wiesz, rozmawiały ze znajomymi, tworząc dzieło sztuki w pewien sposób razem. A jeśli chodzi o autonomię, to dzieci doceniają większy stopień autonomii – nie chcą, żeby ktoś im zaglądał przez ramię, żeby ktoś musiał im to wpisywać. To początek, jeśli chodzi o sztuczną inteligencję i RIT. Chciałbym również zachęcić Państwa do zapoznania się z drugą fazą raportu, czyli naszym zestawem narzędzi, w którym zachęcamy przedstawicieli branży i projektantów produktów do korzystania z RIT podczas opracowywania narzędzi, aby naprawdę postawić dzieci na pierwszym planie, jeśli chodzi o te osiem zasad, tak aby dobrostan był kluczowym elementem korzystania ze sztucznej inteligencji w ogóle. Mówiłem wtedy bardzo szybko, więc oddaję głos, ale było wiele rzeczy, o których chciałem powiedzieć na temat tego, jak sztuczna inteligencja kształtuje dzieci dzisiaj, ponieważ uznałem, że głos dzieci jest naprawdę interesujący i że jasno wynika to z raportu, że my również to zrobiliśmy.

Tak. Nie, nie, absolutnie. I wspaniale jest o tym mówić. Wiesz, jak wygląda odpowiedzialne projektowanie zorientowane na dziecko? Mówiłeś o kilku zasadach, jak mogłoby ono tam wyglądać. I może zwrócę się do ciebie, Simonie, ponieważ oczywiście pracujesz w tej branży i rozwijasz narzędzia AI. Czy są jakieś dobre przykłady, z których możemy czerpać, aby zastanowić się, jak AI może wspierać dzieci i co chcą z nią zrobić, jakie mają prawa, ale także jak radzić sobie z tymi napięciami, budując odpowiednie umiejętności?

Tak. I niestety, niewiele jest przykładów, gdzie to dobrze działa. Na czacie pojawiło się kilka pytań dotyczących napięć komercyjnych związanych z tym tematem. Niestety, mamy do czynienia głównie z dużymi organizacjami komercyjnymi, które przede wszystkim zwracają uwagę na zyski finansowe w sposobie tworzenia niektórych z tych środowisk. Mówiliśmy o tym wcześniej – jak ważne jest tworzenie precyzyjnych, odpowiednich do wieku strumieni treści, a zrozumienie, skąd bierze się transparentność tego źródła danych, jest niezwykle ważne. I to jest jedna z najważniejszych rzeczy, które obecnie obserwujemy – ta transparentność, która wiąże się również z całą koncepcją stronniczości. Jeśli potrafisz zrozumieć, skąd pochodzą dane, skąd pochodzi szkolenie, możesz zrozumieć, jak i gdzie może znajdować się stronniczość, co jest trudne, ponieważ i tak czasami jest to subiektywne. Ale odpowiednie dla wieku czynniki wyzwalające i odpowiednie dla wieku zabezpieczenia w sposobie, w jaki trenujemy te zbiory danych, są naprawdę, naprawdę kluczowe. A na razie to dopiero raczkuje. I myślę, że niektóre z kwestii, które zostały poruszone w innych tematach, w pytaniach tam poruszonych, moim zdaniem, zaczną nas interesować różne nurty sztucznej inteligencji, różne typy modeli, te rozbudowane modele językowe, które zostały specjalnie wyszkolone pod kątem ograniczeń wiekowych w tej przestrzeni.

Dzięki, Simon. A może moglibyśmy przejść do kwestii regulacji. Myślę, że rozmawialiśmy trochę o odpowiedzialności branży, ale, wiesz, myśląc o obecnej polityce i regulacjach, wydaje mi się, że mamy wrażenie, że nie nadążają one za technologią. Więc, Katie, może mogłabyś powiedzieć trochę o tym, gdzie, twoim zdaniem, jesteśmy w tyle i co trzeba zrobić.

Tak, absolutnie. Myślę więc, że w Internet Matters zawsze mówimy o tym, że nie może być tylko jednego podejścia do zapewnienia bezpieczeństwa dzieciom i młodzieży w świecie online. Musi to wyjść od przemysłu. Musi wyjść od rządu. Szkoły muszą być wspierane. Rodzice i dzieci muszą rozumieć technologię, z którą się stykają, i móc korzystać z niej w wybrany przez siebie sposób. Ale jeśli skupimy się konkretnie na regulacjach, to jednym z wyzwań, jakie napotkaliśmy w tych badaniach, jest to, że chociaż takie rzeczy jak ustawa o bezpieczeństwie online, na przykład, miały być budowane lub tworzone w taki sposób, aby zmieniały się wraz z nowymi i pojawiającymi się technologiami, to prawie przegraliśmy na pierwszej przeszkodzie, jeśli chodzi na przykład o chatboty oparte na sztucznej inteligencji, gdzie istnieją sprzeczne informacje, niezależnie od tego, czy pochodzą one od Ofcomu, czy od rządu, na temat tego, jak chatboty oparte na sztucznej inteligencji będą wpisywać się w obecne przepisy dotyczące bezpieczeństwa online, niezależnie od tego, czy jest to ustawa o bezpieczeństwie online, czy inne elementy regulacji. Widzieliśmy już w przypadku innych elementów sztucznej inteligencji, na przykład w kontekście aktów notyfikacji, gdzie, wiecie, trzeba było stworzyć lub wdrożyć przepisy, ponieważ obecne prawo nie chroni ludzi przed tego typu zastosowaniami sztucznej inteligencji i w niektórych z tych poważniejszych aspektów. Myślę więc, że zdecydowanie jest miejsce na poprawę i być może punktem wyjścia byłoby wyjaśnienie, co można, a czego nie można zrobić w ramach istniejących przepisów, zanim przejdziemy do wypełniania tych luk.

Myślę, że z naszej perspektywy, jedną z luk w obecnych przepisach, a dotyczy to również mediów społecznościowych, ale myślę, że w pewnym sensie ujawnia się to w odniesieniu do chatbotów opartych na sztucznej inteligencji, jest kwestia weryfikacji wieku. Jak wspomniałem, weryfikacja wieku jest kluczowa dla odblokowania wielu innych elementów bezpieczeństwa dzieci. Wiecie, czy to kontrola rodzicielska, czy też dostosowanie treści do wieku. Uważam więc, że wprowadzenie tego w przepisach i zapewnienie, że znamy wiek użytkowników korzystających z tych platform, jest naprawdę kluczowe. Wiecie, słyszeliśmy w badaniach, że dzieci rejestrowały się, ponieważ chciały funkcji dostępnych dla starszych osób, aby mogły korzystać z funkcji niedostępnych dla dzieci i innych rzeczy, a to można w pewnym sensie zablokować tylko za pomocą weryfikacji wieku. Myślę więc, że to kluczowy punkt wyjścia również dla rządu.

Świetnie. Dzięki, Katie. I może zostało nam jeszcze 10 minut. Możemy przejść do pytań, które zadali nam uczestnicy. Dużo mówiliśmy o sprawczości, ale pojawiło się też pewne zainteresowanie tym, co paneliści myślą o roli szkół. Więc może Elle, mogłabyś o tym porozmawiać. Myślę, że kluczowym przesłaniem i myślą jest rola szkół we wspieraniu edukacji medialnej dzieci, szczególnie w zakresie sztucznej inteligencji, a także to, jakiego wsparcia potrzebują.

Tak, zdecydowanie. Chodzi mi o to, że, wiecie, oczywiste jest, że szkoły są w tym niezwykle ważne. Wiecie, widzą dzieci pięć dni w tygodniu. I tak, ale myślę, że naprawdę, myślę, że nie możemy traktować tego jako cudownego rozwiązania. Katie właśnie powiedziała, że musi istnieć… musi istnieć odpowiedzialność za to na wszystkich szczeblach. I nie możemy uczyć dzieci bezpieczniejszego świata. Świat jest taki, jaki jest, i możemy na niego spojrzeć i zadać sobie pytanie, czy chcemy, aby dzieci dorastały w takiej sytuacji i czy jest on budowany z myślą o ich prawach i interesach. Dlatego interwencje szkolne muszą iść w parze ze zmianami, które branża technologiczna musi wprowadzić na samym początku. Ale mając to na uwadze, umiejętności w zakresie sztucznej inteligencji będą – i są potrzebne już teraz, wiecie, patrząc na ten raport – będą tak samo ważne, jak każdy inny rodzaj umiejętności czytania i pisania, którego obecnie uczą szkoły. Szkoły są na pierwszej linii frontu w przygotowywaniu dzieci do życia w świecie. I myślę, że im więcej dowiemy się o tym, jak wygląda ten świat, co jest efektem takiego raportu, ponieważ, jak już wspomniałem, wiele jeszcze nie wiemy, a wiele rzeczy szkoły słyszą po raz pierwszy, zanim jeszcze społeczeństwo obywatelskie lub ktokolwiek z rządu się o tym dowie, to właśnie szkoły słyszą o tym po raz pierwszy – jako pierwsze. Dlatego tak ważne jest, aby informacje docierały właśnie tam.

W biurach Komisji, oczywiście, chcielibyśmy zobaczyć świat, w którym dzieci nie muszą zwracać uwagi na krzywdy, którym można i należy zapobiegać. Zatem, wiecie, sposób, w jaki szkoły mogą w tym pomóc, a przynajmniej sposób, w jaki szkoły będą w stanie zapewnić naprawdę wartościowy sposób radzenia sobie z tym problemem, polega na tym, że będą mogły przekazywać dzieciom pewne informacje w sposób przystępny dla dzieci w całym kraju. Wiecie, są szkoły, które mogą dostosować różne materiały edukacyjne do swoich dzieci, które ich najbardziej potrzebują, co jest naprawdę wspaniałe. Niektórzy z was widzieli nowe ustawowe wytyczne dotyczące relacji międzyludzkich, zdrowia i edukacji seksualnej, opublikowane w tym tygodniu. I naprawdę, naprawdę bardzo cieszymy się z włączenia sztucznej inteligencji do tego programu nauczania. Jest wiele innych tematów, które również bardzo nas cieszą. Wiecie, jak pornografia i związek z mizoginią, wszystkie te wspaniałe rzeczy, które, wiecie, naprawdę miło widzieć, są dostosowane do świata, w którym żyjemy. I myślę, że jeśli chodzi o to, co szkoły będą musiały dobrze przekazać, ponieważ sukces będzie zależał od realizacji, Komisarz prosi Departament Edukacji o przeprowadzenie rekrutacji nauczycieli specjalizujących się w RHSSE, którzy będą prowadzić cały program nauczania. Mamy więc nadzieję, że zachęci to do krytycznego myślenia o sztucznej inteligencji i świecie online w ogóle, aby włączyć je do codziennej nauki dzieci, a także do ich codziennego życia. Jesteśmy więc bardzo podekscytowani, widząc, jaki wpływ będą miały te nowe wytyczne.

Ale tak, zdecydowanie, myślę, że bardzo to popieramy i wiesz, wszystkie właściwe rzeczy zaczynają być omawiane i uwzględniane. Ale masz rację, chodzi o to, jak to jest wdrażane i jakie wsparcie otrzymują szkoły, ponieważ jest to dość rozproszone i słyszymy wiele od rodziców i dzieci, wiesz, niektórzy mają naprawdę dobre doświadczenia w nauce o tych tematach, edukacji medialnej i o tym, jak być bezpiecznym w Internecie, podczas gdy nie jest to takie samo dla wszystkich dzieci. Jak więc możemy się upewnić, że to zostanie zakorzenione, aby było i było w pewien sposób obowiązkowe we wszystkich społecznościach szkolnych? Może przejdziemy do innego pytania, które zadaliśmy. Nie wiem, czy chcesz coś dodać, Katie, zanim przejdziemy dalej.

Wcale nie. Myślę, że jedyne, co chciałbym powiedzieć – jedną drobną rzecz – to ta dysproporcja, którą obserwowaliśmy, często odzwierciedlająca inne dysproporcje, które widzimy między obszarami o wysokim i niskim poziomie wykluczenia. Często, wiecie, w obszarach o wysokim poziomie wykluczenia, zasoby dydaktyczne są przeznaczane na inne priorytety. Być może nie mają dostępu do takich samych chatbotów opartych na sztucznej inteligencji lub innych narzędzi, które niektóre szkoły niejako same tworzą. Dlatego myślę, że tak ważne jest, abyśmy otrzymali odpowiednie wskazówki, aby wyrównać szanse.

Tak, absolutnie. Dostaliśmy kolejne ciekawe pytanie od kogoś, kto powiedział, że słyszy coraz więcej o dorosłych, którzy korzystają z chatbotów jako substytutu terapeuty. Czy dostrzegamy więc podobieństwa do tego, co robią dzieci, a zwłaszcza nastolatki? Może to coś, o czym Elle albo Katie, chcesz…

Tak, mogę spróbować. To zdecydowanie coś, co zostało poruszone w badaniach, jeśli chodzi o niektóre przykłady podawane przez dzieci. Były więc pewne sytuacje, w których, wiesz, rodzaje porad lub pytań, które zadawali lub na które szukali odpowiedzi, były tym, na co odpowiedziałby prawdopodobnie tradycyjny terapeuta lub zaufany dorosły. Myślę, że to coś, co jest zdecydowanie niedostatecznie zbadane i myślę, że istnieją naprawdę pozytywne zastosowania. Myślę, że NHS stworzył aplikację, która pozwala na kontakt z terapeutą między sesjami. Więc myślę, wiesz, że to niekoniecznie jest zła rzecz, jeśli robi się to we właściwy sposób, ale myślę, że prawdopodobnie nie jesteśmy w punkcie, w którym ogólne chatboty oparte na sztucznej inteligencji powinny być wykorzystywane jako terapeuci dla dzieci, i to jest coś, co zaczynamy obserwować.

Tak, chciałabym powtórzyć to, co właśnie powiedziała Katie. To coś, co moim zdaniem prawdopodobnie będziemy obserwować częściej, ponieważ chatboty oparte na sztucznej inteligencji (AI) będą integrowane z jeszcze większą liczbą przestrzeni, niż widzimy. Myślę, Katie, może… widziałam, że osoba zadająca pytania użyła słowa „zastępstwo” i myślę, że to naprawdę interesujące, ponieważ sugeruje, że nie zapewnia pełnego wsparcia, jakie zapewniłby zwykły terapeuta. I myślę, że to naprawdę… to rodzi pytania o to, czy ten chatbot oparty na sztucznej inteligencji jest… jeśli jest używany w ten sposób, czy powinien być używany w ten sposób? A jeśli nie powinien, należy jasno powiedzieć, że tak naprawdę nie jest to bezpieczne miejsce dla kogoś, kto czuje się wyjątkowo bezbronny, ani że powinno się go zachęcać i, jak sądzę, celebrować z tego powodu, ponieważ, powtórzę, byłoby naprawdę wspaniale, gdyby istniała przestrzeń, w której ludzie mogliby uzyskać wsparcie, kiedy go potrzebują, bardzo, bardzo szybko. Ale tak, myślę, że byłby to naprawdę ciekawy obszar badań także w kontekście zdrowia psychicznego.

Tak. Myślę, że wcześniej na czacie pojawił się komentarz dotyczący tego, że dzieci mogłyby się w takie miejsca zgłaszać, żeby uzyskać porady, skoro chatbot oparty na sztucznej inteligencji nic o nich nie wie, o ich kontekście, życiu rodzinnym, o tym, jakie wsparcie już otrzymały, i w zależności od rodzaju zadawanych przez nie pytań, jak na nie reaguje. Czy ktoś ma jakieś przemyślenia na temat tego, jak do tego podchodzimy? Wiesz, rozmawiałaś tam trochę, Elle, o tym, że albo zachęcamy do tego, jeśli jest to dobrze zrobione, albo nie zachęcamy do tego, jeśli nadal nie ma możliwości, żeby naprawdę zrozumieć więcej z tych problemów. Więc, może Simon lub Caroline, jeśli macie jakieś uwagi dotyczące tego, jak sztuczna inteligencja może się rozwinąć, żeby naprawdę poprawić to, co potencjalnie może zrobić.

Tak, tak. Hmm, myślę, że jest tak wiele do omówienia we wszystkich tych obszarach. Chciałbym tylko powiedzieć, a właśnie odpowiadałem komuś na jednym z czatów, że myślę, że mówimy tu oczywiście o chatbotach AI w tym środowisku, ale AI ostatecznie napędza pewną rewolucję przemysłową w różnych obszarach, które obserwujemy. I myślę, że rozmawialiśmy o tym trochę właśnie wtedy, mówiąc o obawach dzieci dotyczących tego, jak może wyglądać ich przyszłość zawodowa. I myślę, że to jeden z tych obszarów, w których potrzebujemy szerszych przykładów tego, jak AI, nie tylko jako chatboty, ale w innych obszarach przemysłu, życia zawodowego i naszego codziennego życia, jak AI nam pomoże, jakie korzyści przyniesie i jak powinna być wykorzystywana jako narzędzie. Mój syn ma ADHD i jest fanatykiem LEGO. Hmm, ale czasami jest to dla niego frustrujące, ponieważ ma mnóstwo tych cudownych, kreatywnych pomysłów, a nie wie, jak je zrealizować. Używa chatbotów, żeby zrozumieć, jak może szybciej rozwijać swoje kreatywne pomysły. I z tej perspektywy to absolutnie genialne. Moja córka właśnie zdała maturę. ChatGPT jako sposób na pomoc w sprawdzeniu jej gotowości do egzaminu z psychologii na poziomie A. Są więc naprawdę świetne obszary, w których sztuczna inteligencja może wnieść korzyści do edukacji w tej dziedzinie. Myślę jednak, że musimy spojrzeć na to szerzej niż tylko na chatboty i zrozumieć, jak napędza to tę pseudoprzemysłową rewolucję, ponieważ zmieni absolutnie wszystko. I myślę, że nie powinniśmy się tego bać, ponieważ myślę, że to akceptuje. A co do kwestii Elle, to jak sprawić, by firmy technologiczne również wzięły na siebie odpowiedzialność za ten problem? Hmm, i to — nie mam na myśli problemu. Nie do końca o to mi chodzi. Może to być świetna okazja w tej dziedzinie, ale to nie jest dla jednej organizacji. To nie jest dla jednej firmy. To musi być kolektywne.

Mogę tylko dodać, przepraszam, zanim skończymy, Rachel, wiem, że jesteśmy w odpowiednim momencie. Bardzo szybko, powtórzę to, co już wcześniej powiedziałam: naprawdę musimy wspierać różnorodne formy zabawy dzieci, zarówno offline, jak i online. I myślę, że Simon właśnie to powiedział. Nie prosiłam go o reklamę LEGO Group. Jestem za – obiecuję. Ale myślę, że to naprawdę dobry przykład, jeśli chodzi o to, co próbujemy zrobić. Wiecie, kiedy kupujecie pierwszy zestaw LEGO dla swojego dziecka, jesteście z nim na podłodze. Budujecie go razem z nim. Rodzice są zaangażowani w ten sam sposób, w jaki powinno się to odbywać w ich cyfrowym życiu. Jeśli chodzi o sztuczną inteligencję, wiesz, w pewnym sensie możemy się jej bardzo obawiać, ale tak naprawdę, jeśli robimy to razem i jeśli wykorzystujemy zabawę, aby budować zaufanie, którego potrzebują rodzice i rodziny, a także firmy, aby upewnić się, że naprawdę uwzględniamy prawa dziecka we wszystkim, co robimy, ale nie patrzymy na to w oderwaniu od kontekstu, tylko z szacunkiem dla dzieci, zarówno w trybie offline, jak i online. Wiem, że trochę się spóźniliśmy, przepraszam, że przerywam.

Tak, w porządku. Nie, dziękuję. Naprawdę dobre, dobre komentarze. Dziękuję wszystkim za dzisiejszy wkład. Podsumowując, chciałam wrócić do tego, jak zaczęłam, i przemyśleć wszystko, o czym rozmawialiśmy. Tak wiele do omówienia, a tempo zmian w świecie online i bezpieczeństwo dzieci w nim jest dla rodziców przytłaczające. I myślę, że jak słyszeliśmy dzisiaj, jestem tylko jednym z aspektów cyfrowego życia dzieci. Jest tak wiele do rozważenia, i, wiecie, w odniesieniu do sztucznej inteligencji i jej wykorzystania przez dzieci, i upewnienia się, że mogą się nią cieszyć w pozytywny i bezpieczny sposób. To absolutnie wspólny wysiłek. Myślę, że wszyscy rozmawialiśmy o tym rodzaju przemysłu, rządu, rodziców, szkół, wszyscy współpracują, aby upewnić się, że dzieci odbierają to w pozytywny sposób. Dziękuję wszystkim za dzisiejszą obecność i mam nadzieję, że nasze badania naprawdę zabłysnęły, a dzisiejsza dyskusja rzuciła światło na ten problem i doświadczenia dzieci. Mam nadzieję, że wszyscy będziemy mogli stawić czoła wyzwaniom, idąc razem naprzód. Ogromne podziękowania dla wszystkich, którzy uczestniczyli. Naszemu wewnętrznemu zespołowi za przygotowanie fantastycznego raportu i webinarium, a także wszystkim naszym prelegentom i panelistom. Katie, Elle, Caroline i Simonowi, bardzo dziękuję za wasze refleksje i spostrzeżenia. To była naprawdę wspaniała rozmowa. Jestem pewna, że moglibyśmy poświęcić na nią jeszcze godzinę. Życzę wszystkim miłego dnia i dziękuję.

zamknięte Zamknij wideo

Ja, ja i sztuczna inteligencja: pełny raport

Ja, ja i sztuczna inteligencja: pełny raport

Zrozumienie i ochrona dzieci korzystających z chatbotów opartych na sztucznej inteligencji
Ja, ja i sztuczna inteligencja – miniatura raportu
Ikona PDF

Wspieranie badań i zasobów

Zapoznaj się z naszymi badaniami i materiałami przeznaczonymi dla rodziców, opiekunów i specjalistów.

zamknięte Zamknij wideo
zamknięte Zamknij wideo
zamknięte Zamknij wideo
zamknięte Zamknij wideo