MENU

Co to jest deepfake?

Technologia Deepfake to rodzaj sztucznej inteligencji, która może rozpowszechniać dezinformację i dezinformację. Bądź na bieżąco, aby chronić dzieci i młodzież w Internecie.

Mama trzyma tablet otoczony ikonami bezpieczeństwa.

Wskazówki w skrócie

Uzyskaj szybki wgląd i porady dotyczące technologii deepfake.

Co to znaczy?

Deepfakes to filmy lub nagrania audio manipulujące podobieństwem danej osoby. Następnie wydaje się, że robią/mówią coś, czego nigdy nie robili.

Dowiedz się o deepfakesach

Jakie są zagrożenia?

Deepfakes mogą potencjalnie rozpowszechniać fałszywe informacje lub propagandę. Mogą również odgrywać rolę w cyberprzemocy i oszustwach.

Dowiedz się o szkodach

Jak chronić dzieci?

Pomaganie dzieciom w rozwijaniu krytycznego myślenia poprzez regularne rozmowy jest kluczowym elementem ochrony ich przed krzywdą.

Zobacz wskazówki dotyczące bezpieczeństwa

Co to jest deepfake?

Dwa główne typy deepfakes to wideo i audio. Deepfakes wideo manipulują wyglądem osoby, podczas gdy deepfakes audio manipulują jej głosem.

Deepfakes wideo i audio często współdziałają, tworząc treści wprowadzające w błąd. Osoby tworzące te fałszywe treści mogą mieć niewinne intencje. Mogą na przykład nagrać film przedstawiający celebrytę wykonującego zabawny taniec, aby rozśmieszyć ludzi. Jednak nawet najlepsze intencje mogą prowadzić do dezinformacji i zamieszania.

Czym są deepfakes wideo?

Najpopularniejszym rodzajem są deepfakes wideo. Osoby tworzące te filmy korzystają z sztuczna inteligencja zastąpić czyjąś twarz lub ciało w istniejącym materiale wideo. Przykładami mogą tu być nakłonienie celebryty do powiedzenia czegoś kontrowersyjnego lub prezenter wiadomości relacjonujący sfabrykowane historie.

W niektórych deepfake'ach wideo aktor głosowy będzie naśladować celebrytę lub oryginalny dźwięk, aby zapewnić nowy głos. Alternatywnie twórca może również zastosować klonowanie głosu.

Co to jest klonowanie głosu?

Klonowanie głosu, czyli deepfakes audio, manipuluje głosami zamiast wideo, aby brzmiał jak ktoś inny. Coraz powszechniejsze oszustwo wykorzystuje klonowanie głosu, aby atakować ludzi. Rodzice mogą otrzymać gorączkowy telefon od dziecka, które potrzebuje natychmiast pieniędzy na określony cel. Oszustwa te są niezwykle przekonujące i skutkują stratami finansowymi.

Ktoś może również użyć fałszywego dźwięku, aby znęcać się nad inną osobą. Mogą na przykład naśladować głos kolegi z klasy, aby sprawiać wrażenie, że powiedział coś, czego nie powiedział.

Niezależnie od rodzaju deepfake'a należy pamiętać, że do jego stworzenia ktoś musi użyć narzędzia AI. Twórcy Deepfake nie zawsze są jasne, ale sztuczna inteligencja nie generuje automatycznie tych treści.

Jakie są potencjalne szkody?

Deepfakes mogą wpływać na ludzi na wiele sposobów i narażać dzieci i młodzież na krzywdę w Internecie.

Dzieci i młodzież mogą mieć trudności z rozpoznaniem fałszywych plików wideo i audio, zwłaszcza w obliczu coraz bardziej zaawansowanej technologii. Dodatkowo zwiększona dostępność narzędzi AI może oznaczać, że więcej osób będzie mogło tworzyć deepfake. Może to zatem zwiększyć zasięg potencjalnych szkód.

Fałszywe informacje i propaganda 

Użytkownicy online mogą używać deepfakes do:

  • rozpowszechniać fałszywe informacje;
  • zrujnować zaufanie do osób publicznych; Lub
  • manipulować rozmowami na temat polityki i innych ważnych kwestii.

Dzieci wciąż rozwijają umiejętność krytycznego myślenia, dlatego są szczególnie podatne na uwierzenie w tego rodzaju informacje.

Uszkodzenie reputacji

Niektóre raporty łączą deepfakes z pornografią zemsty. W takich przypadkach sprawca dodaje ofiarę do kompromitujących treści, takich jak filmy lub zdjęcia pornograficzne.

Sprawca może następnie użyć tych fałszywych informacji, aby wywrzeć nacisk na ofiary. Może to obejmować żądanie płatności lub prawdziwych zdjęć, aby uniemożliwić szersze udostępnianie deepfakes. Dowiedz się więcej o tej praktyce z naszego przewodnika po molestowaniu seksualnym.

Cyberprzemoc, molestowanie i molestowanie

Sprawcy mogą również wykorzystywać deepfake do zastraszania innych, tworząc filmy, których celem jest wyśmiewanie, zastraszanie lub zawstydzanie innych.

Charakter deepfakes może sprawić, że znęcanie się będzie bardziej dotkliwe dla ofiary. Może to nawet graniczyć z nadużyciem. Dowiedz się, jak może wyglądać znęcanie się nad dzieckiem.

A Raport Fundacji Internet Watch (IWF) z 2023 r ostrzegł przed rosnącą liczbą materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję (CSAM). Zidentyfikowali ponad 20,000 XNUMX takich zdjęć opublikowanych w jednym z nich ciemna sieć Forum CSAM przez okres jednego miesiąca. Ponad połowę z nich uznali za „najprawdopodobniej przestępczą”.

Chociaż liczba ta nie obejmuje deepfakes, IWF twierdzi, że „realistyczne, pełnoekranowe treści wideo staną się powszechne”. Zauważają również, że istnieją już krótkie filmy CSAM generowane przez sztuczną inteligencję. „Będą one coraz bardziej realistyczne i bardziej powszechne”.

Straty finansowe i oszustwa

Niektóre deepfakes audio lub oszustwa polegające na klonowaniu głosu powodują, że ofiary tracą pieniądze. Osoby publiczne również wykorzystywały swoje podobizny do promowania oszukańczych inwestycji.

Jednym z przykładów jest YouTuber Mr Beast, który najwyraźniej oferował swoim obserwującym nowe iPhone'y. Jednak tak naprawdę to nie był on. YouTube jest popularny wśród dzieci i nastolatków. Tak więc deepfakes naśladujące ulubionych twórców mogą narazić ich na te oszustwa.

Przykłady filmów zawierających oszustwa typu deepfake
Wyświetl transkrypcję wideo
Cóż, pozostańmy przy technologii, ponieważ sztuczna inteligencja napędza boom w cyberprzestępczości. Oczekuje się, że w tym roku koszty sięgną 8 bilionów dolarów, czyli więcej niż cała gospodarka Japonii, według szacunków ekspertów ds. bezpieczeństwa cybernetycznego. Największy YouTuber na świecie należy do tych, których obraz wideo został zmanipulowany przez sztuczną inteligencję w celu promowania oszustwa, a nawet prezenterzy BBC nie są na to odporni.

Spójrzcie na to: Brytyjczycy nie muszą już pracować – takie oświadczenie ogłosił dziś nasz gość, Elon Musk. Kto w trakcie realizacji połączenia zaprezentuje nowy projekt inwestycyjny. Opowiem więcej o tym projekcie, który otwiera przed Brytyjczykami nowe możliwości uzyskania zwrotu z inwestycji. W nowy projekt zainwestowano ponad trzy miliardy dolarów i obecnie jest on już uruchomiony.

Dziwne, prawda? Można powiedzieć, że wygląda jak ja, brzmi jak ja. Trochę trudno jest sobie z tym poradzić, prawda? Rozmawiałem więc ze Stephanie Hair, powinnam powiedzieć, że jest niezależnym ekspertem w dziedzinie technologii.

Stephanie Hair, niezależna ekspertka ds. technologii, udziela wywiadu na temat trudności w wykrywaniu deepfakes.

„Wiele osób ma trudności z dostrzeżeniem takich rzeczy” – mówi Hair. „I nie jesteś pierwszy i nie sądzę, że będziesz ostatni, niestety, ponieważ nic tak naprawdę nie stoi na przeszkodzie, aby to się wydarzyło. Tak naprawdę nie ma żadnych przepisów, które nakładałyby na kogokolwiek odpowiedzialność. Nie jestem pewien, od kogo czerpałbyś radość, gdybyś chciał na przykład pozwać. Weszliśmy na Facebooka i powiedzieliśmy, że musicie to usunąć, to jest fałszywe i tak się stało… oni to zrobili, Meta też to zrobiła. Jednakże, uh, istnieje o wiele więcej fałszywych filmów wskazujących widzom oszustwa i obawa polega na tym, że ludzie tak naprawdę rozstają się ze swoimi własnymi pieniędzmi, ponieważ wierzą, że są autentyczne, i to jest zmartwienie: jak ludzie odróżniają to, co jest prawdziwe a co nie jest?”

„Szczerze mówiąc, nie jestem pewien, czy próbuję to stwierdzić na podstawie ograniczeń technicznych, ponieważ nawet na podstawie Twojego filmu mogliśmy zobaczyć, że pewne rzeczy były nie do końca prawidłowe. Wyraźnie wyraziłem się, że to nielegalne. To, co naprawdę chcesz robić, to zadać sobie pytanie, czy to brzmi zbyt dobrze, aby mogło być prawdziwe, prawdopodobnie tak jest. Jeśli wydaje się to trochę dziwne, prawdopodobnie takie jest. No cóż, nie ma czegoś takiego jak darmowy lunch.``

``Z pewnością tak nie jest. Napisałem na Twitterze lub udostępniłem artykuł na ten temat napisany przez BBC, który zawiera najlepsze wskazówki, jak rozpoznać fałszywe filmy wideo.``

Jak chronić dzieci przed fałszywymi krzywdami

Najlepszym sposobem na zapewnienie dzieciom bezpieczeństwa w Internecie jest zapewnienie im narzędzi umożliwiających wykrywanie krzywdy i uzyskiwanie wsparcia. Oto, jak możesz pomóc im poruszać się po deepfakes.

Otwarta komunikacja jest kluczem!

Rozpocznij rozmowy na temat bezpieczeństwa w Internecie wcześnie i często. Omów koncepcję deepfakes. Wyjaśnij, w jaki sposób ludzie wykorzystują sztuczną inteligencję do ich tworzenia i jakie potencjalne zagrożenia stwarzają.

Rozwijaj umiejętność korzystania z mediów przez dzieci

Rozwijaj umiejętności krytycznego myślenia swojego dziecka, zachęcając je do kwestionowania tego, co widzi i słyszy w Internecie. Naucz je szukać wskazówek, które mogą wskazywać, że film może być fałszywy. Przykładami mogą być nienaturalne ruchy lub niespójność jakości dźwięku i obrazu.

DOWIEDZ SIĘ O FAŁSZYWYCH INFORMACJACH

Ustaw granice i ustawienia

W domowej sieci szerokopasmowej lub komórkowej ustaw kontrolę rodzicielską, aby ograniczyć narażenie na nieodpowiednie treści. Zrób to samo z aplikacjami, z których korzysta Twoje dziecko. Następnie wspólnie określcie granice tego, gdzie i kiedy korzystać z urządzeń.

POBIERZ WZÓR UMOWY RODZINNEJ

Porozmawiajmy o obywatelstwie cyfrowym

Pomóż dziecku rozwijać pozytywne zachowania w Internecie. Zniechęcaj ich do tworzenia lub udostępniania fałszywych treści przedstawiających inne osoby, nawet jeśli robią to tylko w ramach żartu.

ZOBACZ NAJLEPSZE MANURY W INTERNECIE

Pokaż im, jak weryfikować źródła

Przedyskutuj z dzieckiem znaczenie weryfikowania informacji przed udostępnieniem ich. Zachęć ich, aby zanim uwierzyli w cokolwiek, co zobaczą w Internecie, sprawdzili wiarygodne źródła i strony internetowe weryfikujące fakty.

Zachowaj prywatność

Porozmawiaj ze swoimi dziećmi o prywatności w Internecie i wyjaśnij znaczenie kontrolowania ich obecności w Internecie. Pamiętaj, że każdy może wykorzystać publiczne zdjęcia Twojego dziecka w dowolnym celu. Ogranicz więc udostępnianie zdjęć swojego dziecka i naucz je ograniczać udostępnianie zdjęć siebie.

Najnowsze artykuły i poradniki na temat AI

Dzięki tym zasobom znajdziesz więcej wsparcia dotyczącego deepfakes i innych rodzajów treści AI.

Czy to było przydatne?
Powiedz nam, jak możemy to poprawić