Podsumowanie
- Nasze nowe badanie przeprowadzone wśród 1,000 dzieci i 2,000 rodziców w Wielkiej Brytanii pokazuje, że coraz większa liczba dzieci (64%) korzysta z chatbotów opartych na sztucznej inteligencji, aby uzyskać pomoc w różnych dziedzinach, od odrabiania lekcji po porady emocjonalne i towarzystwo – przy czym wiele z nich nigdy nie kwestionuje dokładności ani trafności otrzymywanych odpowiedzi.
- Raport, „Ja, ja i sztuczna inteligencja”, opisuje, jak coraz więcej dzieci rozmawia z chatbotami AI jak z przyjaciółmi, mimo że wiele popularnych chatbotów AI nie zostało stworzonych z myślą o dzieciach w ten sposób. Ponad jedna trzecia (35%) dzieci, które z nich korzystają, twierdzi, że rozmowa z chatbotem AI jest jak rozmowa z przyjacielem, a sześciu na dziesięciu rodziców przyznaje, że obawia się, że ich dzieci uwierzą w chatboty AI jako w prawdziwych ludzi.
- Raport ostrzega, że najbardziej zagrożone są dzieci z grup ryzyka. Badanie wykazało, że 71% z nich korzysta z chatbotów opartych na sztucznej inteligencji. Jedna czwarta (26%) dzieci z grup ryzyka, które korzystają z chatbotów opartych na sztucznej inteligencji, twierdzi, że woli rozmawiać z chatbotem opartym na sztucznej inteligencji niż z prawdziwą osobą, a 23% z nich korzysta z chatbotów, ponieważ nie ma nikogo innego, z kim mogłyby porozmawiać.
- W raporcie ostrzega się, że dzieci korzystają z chatbotów opartych na sztucznej inteligencji na platformach nieprzeznaczonych dla nich, bez odpowiednich zabezpieczeń, takich jak weryfikacja wieku i moderacja treści, i apeluje się do rządu o wyjaśnienie, w jaki sposób chatboty oparte na sztucznej inteligencji wchodzą w zakres ustawy o bezpieczeństwie w Internecie.
- Dzieci coraz częściej korzystają ze sztucznej inteligencji, aby pomóc im w odrabianiu lekcji. W raporcie apeluje się o zapewnienie szkołom jasnych i spójnych wytycznych dotyczących budowania wiedzy dzieci i korzystania z AI, w tym chatbotów. Rodzice również mają trudności z nadążaniem za tempem rozwoju AI i potrzebują wsparcia, aby pomóc swoim dzieciom korzystać z niej pewnie i odpowiedzialnie.
Dzisiaj (niedziela 13 lipca)t) opublikowaliśmy nowy raport, „Ja, ja i sztuczna inteligencja: zrozumienie i ochrona dzieci korzystających z chatbotów opartych na sztucznej inteligencji”.
Ponieważ chatboty oparte na sztucznej inteligencji szybko stają się częścią codziennego życia dzieci, raport analizuje, w jaki sposób dzieci z nimi wchodzą w interakcje. Raport podkreśla, jak narzędzia oparte na sztucznej inteligencji mogą przynieść dzieciom korzyści, takie jak: Oprócz wsparcia w nauce i przestrzeni do zadawania pytań, ostrzega również, że stanowią one zagrożenie dla bezpieczeństwa i rozwoju dzieci. Brak weryfikacji wieku i regulacji sprawia, że niektóre dzieci są narażone na nieodpowiednie treści.
Nasze badania budzą obawy, że dzieci wykorzystują chatboty AI w sposób emocjonalny, między innymi w celu nawiązania przyjaźni i uzyskania porady, mimo że wiele popularnych chatbotów AI nie zostało stworzonych z myślą o dzieciach w ten sposób. Raport ostrzega, że dzieci mogą stać się nadmiernie zależne od chatbotów AI lub otrzymywać nieprecyzyjne lub niewłaściwe odpowiedzi, co może oznaczać, że będą mniej skłonne do szukania pomocy u zaufanych dorosłych.
Obawy te nasiliły się w związku z incydentami, takimi jak sprawa na Florydzie, gdzie matka wniosła pozew przeciwko character.ai, twierdząc, że chatbot oparty na sztucznej inteligencji, oparty na postaci z Gry o Tron, dopuszczał się przemocy seksualnej wobec jej nastoletniego syna i namawiał go do odebrania sobie życia. W Wielkiej Brytanii poseł niedawno opowiedział parlamentowi o „niezwykle wstrząsającym spotkaniu” z wyborcą, którego 12-letni syn rzekomo był molestowany przez chatbota na tej samej platformie.
W raporcie argumentuje się, że rząd i branża technologiczna muszą ponownie przeanalizować, czy obowiązujące przepisy i regulacje odpowiednio chronią dzieci korzystające z chatbotów opartych na sztucznej inteligencji. Coraz powszechniejsza jest świadomość, że konieczne mogą być dalsze wyjaśnienia, zaktualizowane wytyczne lub nowe przepisy. W szczególności apelujemy do rządu o nałożenie na dostawców chatbotów opartych na sztucznej inteligencji surowych wymogów dotyczących zapewnienia wieku, aby zapewnić, że dostawcy będą egzekwować minimalne wymagania wiekowe i tworzyć rozwiązania dostosowane do wieku dzieci.
Aby wesprzeć nasze badania, przeprowadziliśmy ankietę na reprezentatywnej próbie 1,000 dzieci w Wielkiej Brytanii w wieku 9-17 lat oraz 2,000 rodziców dzieci w wieku 3-17 lat, a także zorganizowaliśmy cztery grupy fokusowe z dziećmi. Testy użytkowników przeprowadzono na trzech chatbotach opartych na sztucznej inteligencji – ChatGPT, Snapchat'S My AI i character.ai, a także dwa „awatary” symulujące wrażenia dziecka z korzystania z tych gier.
Oto najważniejsze ustalenia tego badania:
- Dzieci wykorzystują chatboty oparte na sztucznej inteligencji na wiele różnych, pomysłowych sposobów. 42% dzieci w wieku 9-17 lat, które korzystały z chatbotów opartych na sztucznej inteligencji, wykorzystywało je do wspierania prac domowych. Dzieci korzystają z nich do powtórek, pisania i „ćwiczenia” umiejętności językowych. Wiele z nich docenia natychmiastowe odpowiedzi i wyjaśnienia.
- Poszukiwanie porady: Prawie jedna czwarta (23%) dzieci, które korzystały z chatbotów opartych na sztucznej inteligencji, korzystała z nich już w celu uzyskania porady, np. w kwestii ubioru, ćwiczenia rozmów z przyjaciółmi, a także w ważniejszych kwestiach, takich jak zdrowie psychiczne. Niektóre dzieci, które korzystały z chatbotów opartych na sztucznej inteligencji (15%), twierdzą, że wolą rozmawiać z chatbotem niż z prawdziwym człowiekiem.
- Koleżeństwo: Dzieci z grup ryzyka korzystają z chatbotów AI w celu nawiązania kontaktu i zapewnienia sobie komfortu. Co szóste (16%) dziecko z grup ryzyka twierdzi, że korzysta z nich, ponieważ chce mieć przyjaciela, a połowa (50%) twierdzi, że rozmowa z chatbotem AI przypomina rozmowę z przyjacielem. Niektóre dzieci korzystają z chatbotów AI, ponieważ nie mają nikogo innego, z kim mogłyby porozmawiać.
- Niedokładne i niewystarczające odpowiedzi: Dzieci podawały przykłady mylących lub niedokładnych odpowiedzi, co zostało potwierdzone naszymi własnymi testami z użytkownikami. Chatboty ze sztuczną inteligencją czasami nie wspierały dzieci jasnymi i wyczerpującymi poradami w swoich odpowiedziach. Jest to szczególnie niepokojące, biorąc pod uwagę fakt, że 58% dzieci, które korzystały z chatbotów ze sztuczną inteligencją, stwierdziło, że ich zdaniem korzystanie z chatbota ze sztuczną inteligencją jest lepsze niż samodzielne szukanie informacji.
- Duże zaufanie do porad: Dwoje na pięcioro (40%) dzieci, które korzystały z chatbotów ze sztuczną inteligencją, nie ma obaw związanych z przestrzeganiem rad chatbota, a kolejne 36% nie ma pewności, czy powinno się tym martwić. Liczba ta jest jeszcze wyższa w przypadku dzieci w trudnej sytuacji. Dzieje się tak pomimo faktu, że chatboty ze sztuczną inteligencją czasami udzielają sprzecznych lub nieprzychylnych rad.
- Narażenie na szkodliwe treści: Dzieci mogą być narażone na treści o charakterze drastycznym i nieodpowiednim dla ich wieku, w tym treści mizoginistyczne, mimo że dostawcy botów do obsługi sztucznej inteligencji zabraniają dzieciom udostępniania takich treści w swoich regulaminach.
- Nieostre granice: Niektóre dzieci postrzegają już boty z AI jako ludzkie – 35% z nich, które z nich korzystają, twierdzi, że rozmowa z nimi przypomina rozmowę z przyjacielem. Wraz ze wzrostem humanizacji odpowiedzi botów z AI, dzieci mogą spędzać więcej czasu na interakcji z nimi i stawać się bardziej zależne emocjonalnie. Jest to niepokojące, biorąc pod uwagę, że co ósme dziecko (12%) korzysta z botów z AI, ponieważ nie ma nikogo innego, z kim mogłoby porozmawiać, co stanowi odsetek niemal co czwartego dziecka (23%) narażonego na tego typu sytuacje.
- Dzieci muszą radzić sobie z obsługą chatbotów AI samodzielnie lub z ograniczonym wsparciem ze strony zaufanych dorosłych. 62% rodziców deklaruje obawy dotyczące dokładności informacji generowanych przez sztuczną inteligencję, jednak tylko 34% z nich rozmawiało ze swoimi dziećmi o tym, jak oceniać prawdziwość treści generowanych przez sztuczną inteligencję. Tylko 57% dzieci deklaruje, że rozmawiało z nauczycielami lub szkołą na temat sztucznej inteligencji, a dzieci twierdzą, że porady udzielane przez nauczycieli w szkołach również mogą być sprzeczne.
W raporcie zawarto również zalecenia dotyczące wsparcia i ochrony dzieci w całym systemie, wykorzystujące chatboty oparte na sztucznej inteligencji, w tym:
- Przemysłowe przyjęcie podejścia uwzględniającego bezpieczeństwo na etapie projektowania w celu stworzenia dostosowanych do wieku dzieci chatbotów opartych na sztucznej inteligencji, które odzwierciedlają ich potrzeby, mają wbudowaną kontrolę rodzicielską, zaufane znaki drogowe i funkcje ułatwiające korzystanie z mediów.
- Rząd zapewnienie przejrzystych wytycznych dotyczących zakresu ochrony chatbotów ze sztuczną inteligencją w ramach Ustawy o bezpieczeństwie w Internecie, nakazanie skutecznego zapewnienia bezpieczeństwa wiekowego dostawcom chatbotów ze sztuczną inteligencją, które nie są przeznaczone dla dzieci, oraz zagwarantowanie, że regulacje prawne nadążają za szybko rozwijającymi się technologiami sztucznej inteligencji.
- Rząd wspierający szkoły wdrażanie sztucznej inteligencji i edukacji medialnej na wszystkich kluczowych etapach, w tym szkolenie nauczycieli i oferowanie szkołom, rodzicom i dzieciom jasnych wskazówek dotyczących właściwego korzystania ze sztucznej inteligencji.
- Rodzice i opiekunowie otrzymywanie wsparcia w zakresie kierowania korzystaniem przez dziecko ze sztucznej inteligencji oraz prowadzenie rozmów na temat tego, czym są chatboty oparte na sztucznej inteligencji, jak działają i kiedy z nich korzystać, a także kiedy szukać wsparcia w świecie rzeczywistym.
- Decydenci, badania i przemysł uwzględnienie głosu dzieci w procesie rozwoju, regulacji i zarządzania chatbotami opartymi na sztucznej inteligencji oraz inwestowanie w długoterminowe badania nad tym, w jaki sposób sztuczna inteligencja reagująca na emocje może kształtować dzieciństwo.
Rachel Huggins, współdyrektor generalna Internet Matters, powiedziała:
„Chatboty oparte na sztucznej inteligencji szybko stają się częścią dzieciństwa, a ich wykorzystanie gwałtownie wzrosło w ciągu ostatnich dwóch lat. Jednak większość dzieci, rodziców i szkół działa po omacku i nie dysponuje informacjami ani narzędziami ochronnymi, których potrzebują, aby bezpiecznie radzić sobie z tą rewolucją technologiczną.
„Chociaż sztuczna inteligencja niesie ze sobą oczywiste korzyści, nasze badania pokazują, jak chatboty zaczynają zmieniać postrzeganie przez dzieci pojęcia „przyjaźni”. Bardzo szybko dotarliśmy do punktu, w którym dzieci, a zwłaszcza te wrażliwe, postrzegają chatboty oparte na sztucznej inteligencji jako prawdziwych ludzi i w związku z tym proszą je o emocjonalne i wrażliwe rady. Niepokojące jest również to, że często nie zadają pytań tym, co mówią im ich nowi „przyjaciele”.
Musimy zwrócić uwagę na te wczesne sygnały ostrzegawcze i podjąć skoordynowane działania, aby mieć pewność, że dzieci będą mogły bezpiecznie i pozytywnie odkrywać potencjał chatbotów opartych na sztucznej inteligencji, unikając oczywistych potencjalnych zagrożeń.
Miliony dzieci w Wielkiej Brytanii korzystają z chatbotów opartych na sztucznej inteligencji (AI) na platformach, które nie są dla nich przeznaczone, bez odpowiednich zabezpieczeń, edukacji i nadzoru. Rodzice, opiekunowie i edukatorzy potrzebują wsparcia, aby odpowiednio ukierunkować korzystanie z AI przez dzieci. Branża technologiczna musi przyjąć podejście uwzględniające bezpieczeństwo w fazie projektowania w odniesieniu do rozwoju chatbotów opartych na AI, a rząd powinien zadbać o to, aby nasze przepisy dotyczące bezpieczeństwa w sieci były wystarczająco rygorystyczne, aby sprostać wyzwaniom, jakie ta nowa technologia stawia przed dziećmi.
Derek Ray-Hill, tymczasowy dyrektor generalny Fundacji Internet Watch, powiedział::
„Raport ten podnosi kilka podstawowych pytań dotyczących regulacji i nadzoru nad tymi chatbotami opartymi na sztucznej inteligencji.
„To, że dzieci mogą napotykać treści o charakterze pornograficznym lub nieodpowiednie dla ich wieku za pośrednictwem chatbotów opartych na sztucznej inteligencji, zwiększa ryzyko szkód w przestrzeni, która, jak sugerują nasze dowody, już teraz okazuje się wyzwaniem dla młodych użytkowników. Doniesienia o możliwości uwodzenia za pośrednictwem tej technologii są szczególnie niepokojące.
„Dzieci zasługują na bezpieczny internet, w którym mogą się bawić, spotykać i uczyć bez narażania się na niebezpieczeństwo. Potrzebujemy pilnych działań ze strony rządu i firm technologicznych, aby wbudować bezpieczeństwo w chatboty AI, zanim zostaną one udostępnione”.