Podsumowanie
- W swoim najnowszym raporcie organizacja Internet Matters wzywa nowy rząd do ukrócenia „epidemii” treści o charakterze seksualnym generowanych przez sztuczną inteligencję, po tym jak badanie wykazało, że 13% nastolatków miało styczność z deepfake’ami przedstawiającymi nagie zdjęcia.
- Możliwość niekontrolowanego nadużywania deepfake'ów w celu wykorzystania ich nagich zdjęć wzbudziła strach w wielu dzieciach; ponad połowa nastolatków (55%) uważa, że stworzenie i udostępnienie ich nagiego zdjęcia deepfake byłoby gorsze niż zrobienie prawdziwego zdjęcia.
- Organizacja Internet Matters wzywa do zakazu stosowania narzędzi do „nagościnnej” fotografii, ponieważ raport ostrzega, że w Internecie zbyt łatwo jest tworzyć nagie zdjęcia deepfake.
- Zalecane reformy programu nauczania w szkołach powinny obejmować naukę rozpoznawania fałszywych informacji i odpowiedzialnego korzystania z technologii sztucznej inteligencji.
Internet Matters, wiodąca brytyjska organizacja non-profit wspierająca bezpieczeństwo dzieci w sieci, publikuje dziś (wtorek 22 października) nowy raport, „Nowe oblicze nadużyć cyfrowych: Doświadczenia dzieci z nagimi deepfake’ami”W raporcie oszacowano, że czworo dzieci z każdej trzydziestoosobowej klasy miało jakieś doświadczenie z „nagimi deepfake’ami” i wezwano rząd do wprowadzenia nowych przepisów mających na celu powstrzymanie wzrostu liczby fałszywych nagich zdjęć młodych ludzi, zwłaszcza dziewcząt, przy użyciu sztucznej inteligencji (GenAI), poprzez zakazanie tzw. aplikacji „nagich”.
Raport wyjaśnia, w jaki sposób GenAI sprawiło, że produkcja nieświadomych, jawnych obrazów zwykłych ludzi – w tym dzieci – stała się szybka, prosta i tania. Twierdzi, że obecne przepisy nie nadążają za tym; modele AI wykorzystywane do generowania obrazów seksualnych dzieci nie są obecnie nielegalne w Wielkiej Brytanii, mimo że posiadanie deepfake’owego obrazu seksualnego dziecka jest przestępstwem.
Podczas gdy technologia deepfake może być wykorzystywana w celach pozytywnych, takich jak edukacja lub szkolenia, dowody wskazują, że większość deepfake'ów jest tworzona w celu wyrządzenia szkody, w tym poprzez wykorzystywanie seksualne, wykorzystywanie seksualne motywowane finansowo, dezinformację, oszustwa lub oszustwa. Kiedyś zjawisko to było w dużej mierze ukierunkowane na celebrytki, tworzenie fałszywych nagich zdjęć jest teraz czymś, co jest szerzej dostępne i ma wpływ na dzieci, a dziewczęta są najprawdopodobniej celem.
Dzisiejszy raport Internet Matters podkreśla, jak szeroko dostępne i łatwe w użyciu stały się narzędzia „nudifying” do wykorzystania online. Szacuje się, że 99% deepfake’ów nago przedstawia dziewczęta i kobiety, a „nudifying” modelki często nie działają na zdjęciach chłopców i mężczyzn. Obrazy seksualne generowane przez sztuczną inteligencję przedstawiające dzieci były wykorzystywane do ułatwiania wykorzystywania seksualnego dzieci wobec dzieci, wykorzystywania seksualnego osób dorosłych i sextortionu i mogą mieć głęboki wpływ na ofiary, prowadząc do wystąpienia lęku, depresji i myśli samobójczych.
Nastolatkowie używali aplikacji „nudification”, aby generować seksualnie jawne obrazy swoich koleżanek z klasy, często udostępniając te obrazy na czatach grupowych i w mediach społecznościowych. Dziewczęta mówiły Internet Matters, że czułyby przerażenie i wstyd, a także obawiałyby się, że nauczyciel lub rodzic mógłby pomyśleć, że są autentyczne.
Dzisiejszy raport szczegółowo opisuje reprezentatywne badanie Internet Matters przeprowadzone w czerwcu 2,000 r. przez Opinium na 3 rodzicach dzieci w wieku od 17 do 1,000 lat i 9 dzieci w wieku od 17 do 2024 lat w Wielkiej Brytanii. Z badania wynika, że:
- Znaczna liczba dzieci ma jakieś doświadczenie z nagą deepfake. Ogólnie rzecz biorąc, 13% dzieci miało doświadczenie z nagą deepfake (w tym wysyłanie lub odbieranie, natknięcie się na nagą deepfake online, korzystanie z aplikacji nudifying lub kogoś, kogo znają, kto korzystał z aplikacji nudifying). Oznacza to, że około pół miliona (529,632 4) nastolatków w Wielkiej Brytanii, czyli 30 nastolatków w klasie XNUMX, miało doświadczenie z nagą deepfake.
- W przypadku nastoletnich chłopców (18%) prawdopodobieństwo, że mieli do czynienia z nagimi zdjęciami deepfake, jest dwa razy większe niż w przypadku nastoletnich dziewcząt (9%), jednak to chłopcy częściej tworzą nagie zdjęcia deepfake, a dziewczęta częściej padają ich ofiarą.
- Chłopcy i dzieci narażone częściej wchodzą w interakcję z nagim deepfake. 10% chłopców w wieku 13-17 lat natknęło się na nagi deepfake online, w porównaniu do 2% dziewcząt w tym samym wieku. Jedna czwarta narażonych dzieci miała doświadczenie z nagim deepfake, w porównaniu do 11% dzieci nienarażonych.
- Nastolatki uważają, że nadużycia deepfake nagości są gorsze niż nadużycia wizerunkowe z prawdziwymi zdjęciami. Ponad połowa nastolatków (55%) uważa, że gorsze byłoby stworzenie i udostępnienie ich nagiego deepfake niż prawdziwego obrazu.
- Większość rodzin ma niewielką lub żadną wiedzę na temat deepfake’ów, przy czym prawie dwie trzecie dzieci (61%) i prawie połowa rodziców (45%) twierdzi, że nie zna ani nie rozumie terminu „deepfake”.
- Rodziny chcą, aby rząd i firmy technologiczne zrobiły więcej w walce z nagimi zdjęciami deepfake. 84% nastolatków i 80% rodziców uważa, że narzędzia służące do pokazywania nagości powinny być zakazane dla wszystkich w Wielkiej Brytanii, w tym dla dorosłych.
- Rodziny zgadzają się również, że potrzeba więcej edukacji na temat deepfake'ów. Tylko 11% nastolatków uczyło się o deepfake'ach w szkole, a tylko 6% o deepfake'ach nago. Zdecydowana większość nastolatków (92%) i rodziców (88%) uważa, że dzieci powinny uczyć się o ryzyku związanym z deepfake'ami w szkole.
Raport opowiada się za nowymi przepisami i działaniami przemysłu w celu ochrony dzieci przed deepfake'owym wykorzystywaniem seksualnym i twierdzi, że nie można oczekiwać, że rodzice i szkoły będą chronić dzieci same. Wzywa do podjęcia działań, w tym:
- Rząd powinien priorytetowo potraktować zakaz stosowania narzędzi do udawania nagości oraz wzmocnić ustawę o bezpieczeństwie w sieci, wprowadzając kodeksy postępowania dotyczące krzywdzenia ze względu na płeć i znęcania się nad dziećmi.
- Firmy technologiczne podejmą bardziej zdecydowane działania, usuwając dostęp do narzędzi ujawniających nagość w wyszukiwarkach i sklepach z aplikacjami.
- Krajowy program nauczania zostanie zaktualizowany, aby uwzględnić nauczanie na temat krytycznej znajomości mediów.
Aby zgrać się z dzisiejszym raportem i go wesprzeć, uruchamiamy Internet Matters nowe zasoby, w tym porady ekspertów dla rodziców dotyczące ochrony dzieci przed deepfake’ami.
Carolyn Bunting MBE, współzarządzająca Internet Matters, powiedziała:
„AI umożliwiło produkcję wysoce realistycznych deepfake'ów dzieci za pomocą kliknięcia kilku przycisków. Deepfake'i nagości są głęboką inwazją na autonomię i godność ciała, a ich wpływ może zniszczyć życie. Ponieważ narzędzia do nudyfikowania są w dużej mierze skoncentrowane na kobietach, mają one nieproporcjonalnie duży wpływ na dziewczęta.
„Dzieci opowiadały nam o obawach, że coś takiego może się im przydarzyć bez ich wiedzy i przez osoby, których nie znają. Uważają nadużywanie deepfake image za potencjalnie większe naruszenie, ponieważ jest poza ich kontrolą.
„Nadużycia deepfake image mogą przydarzyć się każdemu, w każdej chwili. Rodzice nie powinni być pozostawieni samym sobie w radzeniu sobie z tym niepokojącym problemem. Nadszedł czas, aby rząd i przemysł podjęły działania, aby temu zapobiec, poprzez rozprawienie się z firmami, które produkują i promują te narzędzia, które są wykorzystywane do znęcania się nad dziećmi”.