Co to jest deepfake?
Technologia Deepfake to rodzaj sztucznej inteligencji, która może rozpowszechniać dezinformację i dezinformację. Bądź na bieżąco, aby chronić dzieci i młodzież w Internecie.

Wskazówki w skrócie
Uzyskaj szybki wgląd i porady dotyczące technologii deepfake.
Co to znaczy?
Deepfakes to filmy lub nagrania audio manipulujące podobieństwem danej osoby. Następnie wydaje się, że robią/mówią coś, czego nigdy nie robili.
Jakie są zagrożenia?
Deepfakes mogą potencjalnie rozpowszechniać fałszywe informacje lub propagandę. Mogą również odgrywać rolę w cyberprzemocy i oszustwach.
Jak chronić dzieci?
Pomaganie dzieciom w rozwijaniu krytycznego myślenia poprzez regularne rozmowy jest kluczowym elementem ochrony ich przed krzywdą.
Co to jest deepfake?
Dwa główne typy deepfakes to wideo i audio. Deepfakes wideo manipulują wyglądem osoby, podczas gdy deepfakes audio manipulują jej głosem.
Deepfakes wideo i audio często współdziałają, tworząc treści wprowadzające w błąd. Osoby tworzące te fałszywe treści mogą mieć niewinne intencje. Mogą na przykład nagrać film przedstawiający celebrytę wykonującego zabawny taniec, aby rozśmieszyć ludzi. Jednak nawet najlepsze intencje mogą prowadzić do dezinformacji i zamieszania.
Czym są deepfakes wideo?
Najpopularniejszym rodzajem są deepfakes wideo. Osoby tworzące te filmy korzystają z sztuczna inteligencja zastąpić czyjąś twarz lub ciało w istniejącym materiale wideo. Przykładami mogą tu być nakłonienie celebryty do powiedzenia czegoś kontrowersyjnego lub prezenter wiadomości relacjonujący sfabrykowane historie.
W niektórych deepfake'ach wideo aktor głosowy będzie naśladować celebrytę lub oryginalny dźwięk, aby zapewnić nowy głos. Alternatywnie twórca może również zastosować klonowanie głosu.
Co to jest klonowanie głosu?
Klonowanie głosu, czyli deepfakes audio, manipuluje głosami zamiast wideo, aby brzmiał jak ktoś inny. Coraz powszechniejsze oszustwo wykorzystuje klonowanie głosu, aby atakować ludzi. Rodzice mogą otrzymać gorączkowy telefon od dziecka, które potrzebuje natychmiast pieniędzy na określony cel. Oszustwa te są niezwykle przekonujące i skutkują stratami finansowymi.
Ktoś może również użyć fałszywego dźwięku, aby znęcać się nad inną osobą. Mogą na przykład naśladować głos kolegi z klasy, aby sprawiać wrażenie, że powiedział coś, czego nie powiedział.
Niezależnie od rodzaju deepfake'a należy pamiętać, że do jego stworzenia ktoś musi użyć narzędzia AI. Twórcy Deepfake nie zawsze są jasne, ale sztuczna inteligencja nie generuje automatycznie tych treści.
Jakie są potencjalne szkody?
Deepfakes mogą wpływać na ludzi na wiele sposobów i narażać dzieci i młodzież na krzywdę w Internecie.
Dzieci i młodzież mogą mieć trudności z rozpoznaniem fałszywych plików wideo i audio, zwłaszcza w obliczu coraz bardziej zaawansowanej technologii. Dodatkowo zwiększona dostępność narzędzi AI może oznaczać, że więcej osób będzie mogło tworzyć deepfake. Może to zatem zwiększyć zasięg potencjalnych szkód.
Fałszywe informacje i propaganda
Użytkownicy online mogą używać deepfakes do:
- rozpowszechniać fałszywe informacje;
- zrujnować zaufanie do osób publicznych; Lub
- manipulować rozmowami na temat polityki i innych ważnych kwestii.
Dzieci wciąż rozwijają umiejętność krytycznego myślenia, dlatego są szczególnie podatne na uwierzenie w tego rodzaju informacje.
Uszkodzenie reputacji
Niektóre raporty łączą deepfakes z pornografią zemsty. W takich przypadkach sprawca dodaje ofiarę do kompromitujących treści, takich jak filmy lub zdjęcia pornograficzne.
Sprawca może następnie użyć tych fałszywych informacji, aby wywrzeć nacisk na ofiary. Może to obejmować żądanie płatności lub prawdziwych zdjęć, aby uniemożliwić szersze udostępnianie deepfakes.
Cyberprzemoc, molestowanie i molestowanie
Sprawcy mogą również wykorzystywać deepfake do zastraszania innych, tworząc filmy, których celem jest wyśmiewanie, zastraszanie lub zawstydzanie innych.
Charakter deepfakes może sprawić, że znęcanie się będzie bardziej dotkliwe dla ofiary. Może to nawet graniczyć z nadużyciem.
A Raport Fundacji Internet Watch (IWF) z 2023 r ostrzegł przed rosnącą liczbą materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję (CSAM). Zidentyfikowali ponad 20,000 XNUMX takich zdjęć opublikowanych w jednym z nich ciemna sieć Forum CSAM przez okres jednego miesiąca. Ponad połowę z nich uznali za „najprawdopodobniej przestępczą”.
Chociaż liczba ta nie obejmuje deepfakes, IWF twierdzi, że „realistyczne, pełnoekranowe treści wideo staną się powszechne”. Zauważają również, że istnieją już krótkie filmy CSAM generowane przez sztuczną inteligencję. „Będą one coraz bardziej realistyczne i bardziej powszechne”.
Straty finansowe i oszustwa
Niektóre deepfakes audio lub oszustwa polegające na klonowaniu głosu powodują, że ofiary tracą pieniądze. Osoby publiczne również wykorzystywały swoje podobizny do promowania oszukańczych inwestycji.
Jednym z przykładów jest YouTuber Mr Beast, który najwyraźniej oferował swoim obserwującym nowe iPhone'y. Jednak tak naprawdę to nie był on. YouTube jest popularny wśród dzieci i nastolatków. Tak więc deepfakes naśladujące ulubionych twórców mogą narazić ich na te oszustwa.
No cóż, zostańmy przy technologii, ponieważ sztuczna inteligencja napędza boom cyberprzestępczości. Oczekuje się, że koszt osiągnie 8 bilionów dolarów w tym roku, więcej niż gospodarka Japonii, według szacunków ekspertów ds. cyberbezpieczeństwa. Największy YouTuber na świecie należy do tych, których wizerunek wideo został zmanipulowany przez AI w celu promowania oszustwa, a nawet prezenterzy BBC nie są odporni. Spójrz na to: Brytyjczycy nie muszą już pracować, to ogłoszenie naszego dzisiejszego gościa, Elona Muska. Który ujawni nowy projekt inwestycyjny, podczas gdy połączenie będzie trwało. Opowiem ci więcej o tym projekcie, który otwiera nowe możliwości dla Brytyjczyków, aby otrzymać zwrot z inwestycji. W nowy projekt zainwestowano ponad trzy miliardy dolarów i jest on już uruchomiony i działa w tej chwili.
Dziwne, prawda? Wygląda jak ja, brzmi jak ja, możesz powiedzieć. Ciężko to pojąć, prawda? I tak rozmawiałem ze Stephanie Hair, jest niezależną ekspertką od technologii, powinienem powiedzieć.
Stephanie Hair, niezależna ekspertka ds. technologii, udziela wywiadu na temat trudności w wykrywaniu deepfakes.
„Wiele osób ma trudności z wykryciem takich rzeczy” — mówi Hair. „I nie jesteś pierwszy i nie sądzę, że będziesz ostatni, niestety, ponieważ tak naprawdę nie ma nic, co mogłoby temu zapobiec. Nie ma żadnych regulacji, które mogłyby pociągnąć kogokolwiek do odpowiedzialności. Nie jestem pewien, kto by ci sprawił radość, gdybyś chciał na przykład pozwać. Teraz weszliśmy na Facebooka i powiedzieliśmy, że musisz to usunąć, to jest fałszywe i zrobili to… zrobili to, Meta zrobiła to od tamtej pory. Jednak, uh, jest o wiele więcej deep fake'owych filmów, które kierują widzów do oszustw i martwią się, że ludzie faktycznie rozstają się z własnymi pieniędzmi, ponieważ wierzą, że są autentyczne, i to jest zmartwienie, jak ludzie odróżniają, co jest prawdziwe, a co nie?”
„Szczerze mówiąc, nie jestem pewien, czy próba stwierdzenia na podstawie ograniczeń technicznych, ponieważ byliśmy w stanie zobaczyć nawet na twoim filmie, że pewne rzeczy nie były do końca w porządku. Wyraźnie powiedziałem, że to nie jest legalne. To, co naprawdę chcesz zrobić, to zadać sobie pytanie, czy to brzmi zbyt dobrze, aby mogło być prawdziwe, prawdopodobnie tak jest. Jeśli wydaje się trochę dziwne, prawdopodobnie tak jest. Eee, nie ma czegoś takiego jak darmowy lunch”.
„Z całą pewnością nie ma takiego problemu. Napisałem na Twitterze lub udostępniłem artykuł na ten temat napisany przez BBC, w którym znajdują się najważniejsze wskazówki, jak wykrywać deep fake’owe filmy”.
Jak chronić dzieci przed fałszywymi krzywdami
Najlepszym sposobem na zapewnienie dzieciom bezpieczeństwa w sieci jest zapewnienie im narzędzi do wykrywania szkód i uzyskania wsparcia. Oto, jak możesz pomóc im poruszać się po deepfake'ach.
Otwarta komunikacja jest kluczem!
Rozpocznij rozmowy na temat bezpieczeństwa w Internecie wcześnie i często. Omów koncepcję deepfakes. Wyjaśnij, w jaki sposób ludzie wykorzystują sztuczną inteligencję do ich tworzenia i jakie potencjalne zagrożenia stwarzają.
Rozwijaj umiejętność korzystania z mediów przez dzieci
Rozwijaj umiejętności krytycznego myślenia swojego dziecka, zachęcając je do kwestionowania tego, co widzi i słyszy w Internecie. Naucz je szukać wskazówek, które mogą wskazywać, że film może być fałszywy. Przykładami mogą być nienaturalne ruchy lub niespójność jakości dźwięku i obrazu.
Ustaw granice i ustawienia
W domowej sieci szerokopasmowej lub komórkowej ustaw kontrolę rodzicielską, aby ograniczyć narażenie na nieodpowiednie treści. Zrób to samo z aplikacjami, z których korzysta Twoje dziecko. Następnie wspólnie określcie granice tego, gdzie i kiedy korzystać z urządzeń.
Porozmawiajmy o obywatelstwie cyfrowym
Pomóż dziecku rozwijać pozytywne zachowania w Internecie. Zniechęcaj ich do tworzenia lub udostępniania fałszywych treści przedstawiających inne osoby, nawet jeśli robią to tylko w ramach żartu.
Pokaż im, jak weryfikować źródła
Przedyskutuj z dzieckiem znaczenie weryfikowania informacji przed udostępnieniem ich. Zachęć ich, aby zanim uwierzyli w cokolwiek, co zobaczą w Internecie, sprawdzili wiarygodne źródła i strony internetowe weryfikujące fakty.
Zachowaj prywatność
Porozmawiaj ze swoimi dziećmi o prywatności w Internecie i wyjaśnij znaczenie kontrolowania ich obecności w Internecie. Pamiętaj, że każdy może wykorzystać publiczne zdjęcia Twojego dziecka w dowolnym celu. Ogranicz więc udostępnianie zdjęć swojego dziecka i naucz je ograniczać udostępnianie zdjęć siebie.
Przewodnik Deepfake dla rodziców
Najnowsze artykuły o AI
Dzięki tym zasobom znajdziesz więcej wsparcia dotyczącego deepfakes i innych rodzajów treści AI.