Co to jest deepfake?
Technologia Deepfake to rodzaj sztucznej inteligencji, która może rozpowszechniać dezinformację i dezinformację. Bądź na bieżąco, aby chronić dzieci i młodzież w Internecie.
Wskazówki w skrócie
Uzyskaj szybki wgląd i porady dotyczące technologii deepfake.
Co to znaczy?
Deepfakes to filmy lub nagrania audio manipulujące podobieństwem danej osoby. Następnie wydaje się, że robią/mówią coś, czego nigdy nie robili.
Jakie są zagrożenia?
Deepfakes mogą potencjalnie rozpowszechniać fałszywe informacje lub propagandę. Mogą również odgrywać rolę w cyberprzemocy i oszustwach.
Jak chronić dzieci?
Pomaganie dzieciom w rozwijaniu krytycznego myślenia poprzez regularne rozmowy jest kluczowym elementem ochrony ich przed krzywdą.
Co to jest deepfake?
Dwa główne typy deepfakes to wideo i audio. Deepfakes wideo manipulują wyglądem osoby, podczas gdy deepfakes audio manipulują jej głosem.
Deepfakes wideo i audio często współdziałają, tworząc treści wprowadzające w błąd. Osoby tworzące te fałszywe treści mogą mieć niewinne intencje. Mogą na przykład nagrać film przedstawiający celebrytę wykonującego zabawny taniec, aby rozśmieszyć ludzi. Jednak nawet najlepsze intencje mogą prowadzić do dezinformacji i zamieszania.
Czym są deepfakes wideo?
Najpopularniejszym rodzajem są deepfakes wideo. Osoby tworzące te filmy korzystają z sztuczna inteligencja zastąpić czyjąś twarz lub ciało w istniejącym materiale wideo. Przykładami mogą tu być nakłonienie celebryty do powiedzenia czegoś kontrowersyjnego lub prezenter wiadomości relacjonujący sfabrykowane historie.
W niektórych deepfake'ach wideo aktor głosowy będzie naśladować celebrytę lub oryginalny dźwięk, aby zapewnić nowy głos. Alternatywnie twórca może również zastosować klonowanie głosu.
Co to jest klonowanie głosu?
Klonowanie głosu, czyli deepfakes audio, manipuluje głosami zamiast wideo, aby brzmiał jak ktoś inny. Coraz powszechniejsze oszustwo wykorzystuje klonowanie głosu, aby atakować ludzi. Rodzice mogą otrzymać gorączkowy telefon od dziecka, które potrzebuje natychmiast pieniędzy na określony cel. Oszustwa te są niezwykle przekonujące i skutkują stratami finansowymi.
Ktoś może również użyć fałszywego dźwięku, aby znęcać się nad inną osobą. Mogą na przykład naśladować głos kolegi z klasy, aby sprawiać wrażenie, że powiedział coś, czego nie powiedział.
Niezależnie od rodzaju deepfake'a należy pamiętać, że do jego stworzenia ktoś musi użyć narzędzia AI. Twórcy Deepfake nie zawsze są jasne, ale sztuczna inteligencja nie generuje automatycznie tych treści.
Jakie są potencjalne szkody?
Deepfakes mogą wpływać na ludzi na wiele sposobów i narażać dzieci i młodzież na krzywdę w Internecie.
Dzieci i młodzież mogą mieć trudności z rozpoznaniem fałszywych plików wideo i audio, zwłaszcza w obliczu coraz bardziej zaawansowanej technologii. Dodatkowo zwiększona dostępność narzędzi AI może oznaczać, że więcej osób będzie mogło tworzyć deepfake. Może to zatem zwiększyć zasięg potencjalnych szkód.
Fałszywe informacje i propaganda
Użytkownicy online mogą używać deepfakes do:
- rozpowszechniać fałszywe informacje;
- zrujnować zaufanie do osób publicznych; Lub
- manipulować rozmowami na temat polityki i innych ważnych kwestii.
Dzieci wciąż rozwijają umiejętność krytycznego myślenia, dlatego są szczególnie podatne na uwierzenie w tego rodzaju informacje.
Uszkodzenie reputacji
Niektóre raporty łączą deepfakes z pornografią zemsty. W takich przypadkach sprawca dodaje ofiarę do kompromitujących treści, takich jak filmy lub zdjęcia pornograficzne.
Sprawca może następnie użyć tych fałszywych informacji, aby wywrzeć nacisk na ofiary. Może to obejmować żądanie płatności lub prawdziwych zdjęć, aby uniemożliwić szersze udostępnianie deepfakes.
Cyberprzemoc, molestowanie i molestowanie
Sprawcy mogą również wykorzystywać deepfake do zastraszania innych, tworząc filmy, których celem jest wyśmiewanie, zastraszanie lub zawstydzanie innych.
Charakter deepfakes może sprawić, że znęcanie się będzie bardziej dotkliwe dla ofiary. Może to nawet graniczyć z nadużyciem.
A Raport Fundacji Internet Watch (IWF) z 2023 r ostrzegł przed rosnącą liczbą materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję (CSAM). Zidentyfikowali ponad 20,000 XNUMX takich zdjęć opublikowanych w jednym z nich ciemna sieć Forum CSAM przez okres jednego miesiąca. Ponad połowę z nich uznali za „najprawdopodobniej przestępczą”.
Chociaż liczba ta nie obejmuje deepfakes, IWF twierdzi, że „realistyczne, pełnoekranowe treści wideo staną się powszechne”. Zauważają również, że istnieją już krótkie filmy CSAM generowane przez sztuczną inteligencję. „Będą one coraz bardziej realistyczne i bardziej powszechne”.
Straty finansowe i oszustwa
Niektóre deepfakes audio lub oszustwa polegające na klonowaniu głosu powodują, że ofiary tracą pieniądze. Osoby publiczne również wykorzystywały swoje podobizny do promowania oszukańczych inwestycji.
Przykładem jest YouTuber Mr Beast, który najwyraźniej oferował swoim obserwatorom nowe iPhones. Jednak to nie był on. YouTube jest popularny wśród dzieci i nastolatków. Dlatego deepfake'i imitujące ich ulubionych twórców mogą narazić ich na te oszustwa.
No cóż, zostańmy przy technologii, bo sztuczna inteligencja napędza boom cyberprzestępczości. Według szacunków ekspertów ds. cyberbezpieczeństwa, koszty mają sięgnąć w tym roku 8 bilionów dolarów, czyli więcej niż gospodarka Japonii. Największy youtuber świata jest jednym z tych, których wizerunek wideo został zmanipulowany przez sztuczną inteligencję w celu promowania oszustwa, a nawet… BBC Prezenterzy nie są odporni. Spójrzcie na to: Brytyjczycy nie muszą już pracować – to ogłoszenie naszego dzisiejszego gościa, Elona Muska. W trakcie trwania połączenia opublikuje on nowy projekt inwestycyjny. Opowiem wam więcej o tym projekcie, który otwiera przed Brytyjczykami nowe możliwości uzyskania zwrotu z inwestycji. W nowy projekt zainwestowano ponad trzy miliardy dolarów i jest on już w pełni sprawny.
Dziwne, prawda? Wygląda jak ja, brzmi jak ja, możesz powiedzieć. Ciężko to pojąć, prawda? I tak rozmawiałem ze Stephanie Hair, jest niezależną ekspertką od technologii, powinienem powiedzieć.
Stephanie Hair, niezależna ekspertka ds. technologii, udziela wywiadu na temat trudności w wykrywaniu deepfakes.
„Wiele osób ma problem z wykryciem takich rzeczy” – mówi Hair. „Niestety, nie jesteś pierwszy i nie sądzę, żebyś ostatni, bo tak naprawdę nic nie stoi na przeszkodzie, żeby to się stało. Nie ma przepisów, które by kogokolwiek pociągały do odpowiedzialności. Nie jestem pewien, z kogo byś czerpał radość, gdybyś na przykład chciał pozwać kogoś do sądu. A teraz dochodzimy do… Facebook i powiedział, że musisz to usunąć, to jest fałszywe i tak zrobili… zrobili to, Meta zrobiła to od tamtej pory. Jednak, uh, jest mnóstwo innych deep fake'owych filmów, które wskazują widzom na oszustwa, a obawa polega na tym, że ludzie faktycznie wydają własne pieniądze, bo wierzą, że są autentyczni, i to jest obawa, jak ludzie odróżniają, co jest prawdziwe, a co nie?
„Szczerze mówiąc, nie jestem pewien, czy próba stwierdzenia na podstawie ograniczeń technicznych, ponieważ byliśmy w stanie zobaczyć nawet na twoim filmie, że pewne rzeczy nie były do końca w porządku. Wyraźnie powiedziałem, że to nie jest legalne. To, co naprawdę chcesz zrobić, to zadać sobie pytanie, czy to brzmi zbyt dobrze, aby mogło być prawdziwe, prawdopodobnie tak jest. Jeśli wydaje się trochę dziwne, prawdopodobnie tak jest. Eee, nie ma czegoś takiego jak darmowy lunch”.
„Z pewnością nie ma takiego czegoś i napisałam na Twitterze lub udostępniłam artykuł na ten temat napisany przez BBC „w którym znajdziesz najlepsze wskazówki, jak rozpoznawać fałszywe filmy”.
Jak chronić dzieci przed fałszywymi krzywdami
Najlepszym sposobem na zapewnienie dzieciom bezpieczeństwa w sieci jest zapewnienie im narzędzi do wykrywania szkód i uzyskania wsparcia. Oto, jak możesz pomóc im poruszać się po deepfake'ach.
Otwarta komunikacja jest kluczem!
Rozpocznij rozmowy na temat bezpieczeństwa w Internecie wcześnie i często. Omów koncepcję deepfakes. Wyjaśnij, w jaki sposób ludzie wykorzystują sztuczną inteligencję do ich tworzenia i jakie potencjalne zagrożenia stwarzają.
Rozwijaj umiejętność korzystania z mediów przez dzieci
Rozwijaj umiejętności krytycznego myślenia swojego dziecka, zachęcając je do kwestionowania tego, co widzi i słyszy w Internecie. Naucz je szukać wskazówek, które mogą wskazywać, że film może być fałszywy. Przykładami mogą być nienaturalne ruchy lub niespójność jakości dźwięku i obrazu.
Ustaw granice i ustawienia
W domowej sieci szerokopasmowej lub komórkowej ustaw kontrolę rodzicielską, aby ograniczyć narażenie na nieodpowiednie treści. Zrób to samo z aplikacjami, z których korzysta Twoje dziecko. Następnie wspólnie określcie granice tego, gdzie i kiedy korzystać z urządzeń.
Porozmawiajmy o obywatelstwie cyfrowym
Pomóż dziecku rozwijać pozytywne zachowania w Internecie. Zniechęcaj ich do tworzenia lub udostępniania fałszywych treści przedstawiających inne osoby, nawet jeśli robią to tylko w ramach żartu.
Pokaż im, jak weryfikować źródła
Przedyskutuj z dzieckiem znaczenie weryfikowania informacji przed udostępnieniem ich. Zachęć ich, aby zanim uwierzyli w cokolwiek, co zobaczą w Internecie, sprawdzili wiarygodne źródła i strony internetowe weryfikujące fakty.
Zachowaj prywatność
Porozmawiaj ze swoimi dziećmi o prywatności w Internecie i wyjaśnij znaczenie kontrolowania ich obecności w Internecie. Pamiętaj, że każdy może wykorzystać publiczne zdjęcia Twojego dziecka w dowolnym celu. Ogranicz więc udostępnianie zdjęć swojego dziecka i naucz je ograniczać udostępnianie zdjęć siebie.
Przewodnik Deepfake dla rodziców
Najnowsze artykuły o AI
Dzięki tym zasobom znajdziesz więcej wsparcia dotyczącego deepfakes i innych rodzajów treści AI.