MENU

Czym jest Character AI? Co rodzice muszą wiedzieć

Ręka trzymająca smartfon odczytujący character.ai przed ekranem komputera.

Character AI to chatbot, z którym użytkownicy mogą prowadzić spersonalizowane konwersacje. Ponieważ z platformy korzystają miliony użytkowników, pojawiają się obawy o jej bezpieczeństwo dla dzieci.

Dowiedz się, co możesz zrobić, aby zapewnić bezpieczeństwo swojemu nastolatkowi.

Co to jest sztuczna inteligencja postaci?

Character AI to usługa typu chatbot, która na podstawie ustawień użytkownika potrafi generować odpowiedzi tekstowe przypominające te wypowiadane przez człowieka.

Wprowadzona w 2022 roku, użytkownicy mogą tworzyć postacie z konfigurowalnymi osobowościami i odpowiedziami. Mogą publikować te postacie w społeczności, aby inni mogli z nimi rozmawiać lub mogą rozmawiać z samymi postaciami.

Usługa wykorzystuje sztuczną inteligencję do tworzenia wiarygodnych odpowiedzi. Jest popularna wśród dzieci i młodzieży ze względu na możliwość dostosowywania postaci. Mogą one bazować na istniejących osobach lub postaciach w kulturze popularnej lub tworzyć coś nowego.

Minimalne wymagania wiekowe

Zgodnie z Warunkami korzystania z usługi Character AI użytkownicy muszą mieć ukończone 13 lat, aby korzystać z usługi. Obywatele lub rezydenci UE muszą mieć ukończone 16 lat.

Jeśli niepełnoletnie dziecko próbuje się zarejestrować, otrzymuje powiadomienie, że wystąpił problem z jego rejestracją. Następnie automatycznie wraca na stronę logowania, ale nie może spróbować ponownie. Jednak nie ma funkcji weryfikacji wieku, jeśli skłamie co do swojego wieku.

Jednak Google Play wymienia aplikację Character AI jako wymagającą „Parental Guidance”. App Store od Apple wymienia aplikację jako 17+.

Jak to działa?

Po zarejestrowaniu użytkownicy mogą przeglądać szereg chatbotów w różnych celach. Obejmuje to ćwiczenie języka, burzę mózgów i gry. Chatboty prezentowane na stronie Discover są stosunkowo neutralne, gdy po raz pierwszy dołączysz. Istnieje jednak opcja wyszukiwania określonych słów, które nie wydają się w żaden sposób filtrowane.

Użytkownicy mogą również stworzyć postać lub głos.

Stwórz postać

Użytkownicy mogą dostosować zdjęcie profilowe swojej postaci, nazwę, slogan, opis, a także powitanie i głos. Mogą wybrać, czy postać ma pozostać prywatna, czy udostępnić ją publicznie.

Następnie możesz „zdefiniować” postać. W tym miejscu wyjaśniasz, jak chcesz, aby rozmawiali lub działali, nadając postaci chatbota „osobowość”.

Możesz również dostosować postacie tak, aby reagowały w określony sposób. Tak więc, jeśli powiesz, że postać jest przygnębiona, jej reakcje to odzwierciedlą. Podobnie, jeśli powiesz, że jest optymistyczna, to to odzwierciedli.

Rozmowy są realistyczne, dzięki czemu łatwo wczuć się w światopogląd postaci.

Tworzenie głosu

Aby utworzyć głos, użytkownicy muszą przesłać wyraźny 10-15-sekundowy klip audio głosu bez szumu tła. Możesz użyć krótszych klipów, ale głos może wydawać się w ten sposób bardziej mechaniczny. Aby zakończyć przesyłanie, musisz nadać głosowi nazwę i slogan.

Jeśli przypiszesz postaci głos, który przesłałeś, możesz odtwarzać odpowiedzi chatbota tym głosem. Wykonuje on dość dokładną pracę, naśladując przesłany głos.

Czy sztuczna inteligencja postaci jest bezpieczna?

kontrowersje

W październiku 2024 r nastolatek odebrał sobie życie po interakcji z postacią, którą stworzył. Rozmowy poprzedzające ich śmierć dotyczyły samobójstwa. W jednym z przykładów chatbot zapytał nastolatka, czy zaplanował, jak zakończy swoje życie.

W tym samym miesiącu w wyniku dochodzenia odkryto chatboty, które naśladowały Brianna Ghey i Molly Russel na platformie Character AI. Po otrzymaniu powiadomienia platforma usunęła chatboty. Incydent ten poddał w wątpliwość proces tworzenia chatbotów postaci, zwłaszcza gdy odzwierciedlają one prawdziwych ludzi.

Przed tymi incydentami inni zgłaszali słabe porady i uprzedzenia ze względu na rasę i płeć.

Inni użytkownicy przyznają jednak, że aplikacja Character AI wspiera ich zdrowie psychiczne.

Względy bezpieczeństwa

Podobnie jak każde narzędzie AI, Character AI uczy się od osób, które z nim wchodzą w interakcję. Niestety, może to prowadzić do nieodpowiednich i szkodliwych treści.

Warunki korzystania z usługi i wytyczne społeczności aplikacji są podobne do innych i ostrzegają przed takimi treściami. Ponadto użytkownicy mogą zgłaszać chatboty lub postacie z różnych powodów. Wytyczne społeczności zachęcają użytkowników do udostępniania konkretnych przykładów naruszeń zasad, jeśli to możliwe.

Zrzut ekranu opcji raportowania w sztucznej inteligencji postaci

Chociaż aplikacja ma własny zespół moderujący, nie może on moderować bezpośrednich wiadomości między członkami społeczności. Dzieje się tak, ponieważ wszelkie takie wiadomości mają miejsce poza platformą, np. na Discord or Reddit. Zachęcają jednak użytkowników do zgłaszania naruszeń zasad w aplikacji, jeśli takie zauważą.

Bezpieczeństwo osób poniżej 18 roku życia

Character AI ogłosiło serię funkcji bezpieczeństwa dla osób poniżej 18. roku życia. Obejmują one:

  • zmiany w modelach, z których korzystają nieletni. Obejmuje to zmniejszenie szans na natrafienie na nieodpowiednie treści;
  • większa reakcja i interwencja w przypadku naruszenia przez użytkowników Warunków korzystania z usług lub Wytycznych społeczności;
  • dodane zastrzeżenie mające na celu przypomnienie użytkownikom, że chatboty nie są prawdziwymi ludźmi;
  • powiadomienia po godzinnej sesji na platformie.

Ponadto Character AI usunął postacie oznaczone jako naruszające zasady. Użytkownicy nie mogą już uzyskać dostępu do historii czatów z udziałem tych postaci.

Firma Character AI twierdzi, że poważnie podchodzi do kwestii bezpieczeństwa swoich użytkownikówPonadto trwają prace nad wprowadzeniem dodatkowych funkcji bezpieczeństwa dla wszystkich użytkowników.

To jest obraz dla: ZBIERZ CYFROWY ZESTAW NARZĘDZI

Bądź na bieżąco z aplikacjami i platformami

Pomóż zapewnić bezpieczeństwo swojej rodzinie na platformach, z których korzysta, dzięki spersonalizowanym poradom na temat zarządzania ryzykiem i szkodami.

POBIERZ SWOJ CYFROWY ZESTAW NARZĘDZI

5 wskazówek, jak zapewnić bezpieczeństwo nastolatkom w Character AI

Regularnie sprawdzaj, jak korzystają z aplikacji

Z jakimi postaciami rozmawiają i w jaki sposób? Czy mają jakieś potencjalnie szkodliwe osobowości? Te odprawy są częścią regularnego bezpieczeństwa online i pomagają dzieciom rozwijać zrozumienie szkodliwych treści.

Wspólnie przejrzyjcie funkcje prywatności i bezpieczeństwa

Przejrzyjcie aplikację razem, abyście oboje wiedzieli, gdzie i jak zgłaszać szkodliwe treści. Zapoznaj się również z Warunkami korzystania z usługi i Wytycznymi społeczności, aby upewnić się, że nastolatek wie, co powinien zgłaszać.

Weź pod uwagę ich dojrzałość i wiek

Nie każdy nastolatek ma umiejętności krytycznego myślenia i umiejętności medialne, aby korzystać z Character AI. Zastanów się więc, czy Twoje dziecko ma umiejętności radzenia sobie z potencjalnymi szkodami, zanim pozwolisz mu na dostęp.

Użyj kontroli rodzicielskiej w App Store, Na urządzenia i w Twojej sieci aby ograniczyć dostęp do SI postaci, jeśli nie chcesz, aby mieli do niej dostęp. Pamiętaj jednak, aby również powiedzieć, dlaczego to robisz.

Omów właściwe sposoby korzystania z narzędzi AI

Nie powinni przesyłać własnego głosu ani obrazów, aby chronić swoją prywatność. Podobnie nie powinni przesyłać głosów ani obrazów znajomych, członków rodziny lub innych prawdziwych osób. Wyjątkiem dla głosów może być sytuacja, gdy lubią podkładać głos i chcą przesłać fałszywy głos.

Ustaw limity dotyczące użytkowania

Może to obejmować ustalanie limitów czasowych, definiowanie, gdzie mogą korzystać z aplikacji i uzgadnianie, w jaki sposób mogą korzystać z aplikacji. Na przykład możesz ograniczyć ich do godziny w części wspólnej w domu. Możesz również pozwolić im korzystać z niej do nauki lub ćwiczenia umiejętności, ale nie chcesz, aby prowadzili swobodne rozmowy z chatbotami.

Czy to było przydatne?
Powiedz nam, jak możemy to poprawić

Ostatnie posty