Rok temu Internet Matters opublikował Nowe oblicze nadużyć cyfrowych, raport badający rozprzestrzenianie się deepfake’ów (obrazów lub filmów o charakterze seksualnym generowanych przez sztuczną inteligencję) oraz doświadczenia dzieci z nimi związane.
W naszym raporcie zwrócono wówczas uwagę na kilka kluczowych problemów związanych z deepfake’ami przedstawiającymi nagość:
- Narzędzia do „nudyfikacji” są powszechnie dostępne w Internecie, pojawiają się w wynikach najpopularniejszych wyszukiwarek, a ponadto są tanie i łatwe w użyciu.
- W przeważającej większości zdjęć deepfake przedstawiających nagie kobiety i dziewczęta.
- 13% dzieci zetknęło się już z nagą podróbką deepfake, co wywołało u nich strach i niepokój.
W oparciu o te badania wzywamy rząd do zakazania w Wielkiej Brytanii aplikacji i stron internetowych promujących nagość.
W zeszłym roku rząd Wielkiej Brytanii podjął działania mające na celu ograniczenie obiegu deepfake'ów z nagimi zdjęciami. Obejmuje to m.in. ustawodawstwo, które ma na celu uznanie tworzenia niechcianych, seksualnie jawnych deepfake’ów za przestępstwo i wprowadzenie nowych uprawnień umożliwia kontrolę modeli sztucznej inteligencji w celu zapewnienia, że wdrożono zabezpieczenia aby zapobiec tworzeniu lub rozpowszechnianiu przez nich materiałów przedstawiających wykorzystywanie seksualne dzieci. Jednak badania te pokazują, dlaczego konieczne są dalsze działania.
W tym wpisie na blogu podkreślamy, że rok później nowe badania ujawniają podobny obraz – narzędzia do „nudyfikacji” są nadal powszechnie dostępne, tanie i w przeważającej mierze ukierunkowane na kobiece ciała. Istnieje pilna potrzeba wzmocnienia zabezpieczeń.
Tło
Zrozumienie nagich deepfake'ów
Deepfakes są generowane przy użyciu narzędzi sztucznej inteligencji (AI) i są fałszywymi obrazami, filmami lub dźwiękami, które wyglądają i sprawiają wrażenie prawdziwych treści.
Nagie deepfake'i To specyficzny rodzaj deepfake'u, w którym obraz lub wideo zostało zmanipulowane lub wygenerowane w celu zdjęcia (lub częściowego zdjęcia) ubrania z czyjegoś ciała poprzez wykorzystanie jego cech i nałożenie tego na inne ciało. Szacuje się, że 98% filmów i obrazów deepfake to obrazy o charakterze seksualnym, które nie są wyrażane na zasadzie zgody. prawie wszystkie pornograficzne deepfake’i przedstawiają kobiety.
Sztuczna inteligencja jest również wykorzystywana do tworzenia materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM). Dane z Fundacji Internet Watch (IWF) stwierdzono, że liczba zgłoszeń dotyczących CSAM generowanego przez sztuczną inteligencję wzrosła ponad dwukrotnie w ciągu ostatniego roku – ze 199 w 2024 r. do 426 w 2025 r.
Deepfake'i zawierające obrazy seksualne dzieci są nielegalne w Wielkiej Brytanii i klasyfikowane jako CSAM (przemoc seksualna wobec dzieci). Posiadanie jakiejkolwiek formy CSAM jest przestępstwem.
Zgodnie z ustawą o bezpieczeństwie w Internecie (2023), udostępnianie bez zgody intymnego wizerunku osoby dorosłej w formie deepfake jest przestępstwem. Rząd obiecał również wprowadzenie dalszych przepisów, jak opisano powyżej, mających na celu ograniczenie tworzenia bez zgody nagich deepfake'ów.
Jednakże narzędzia służące do „nudyfikacji” obrazów i filmów są nadal legalne w Wielkiej Brytanii od listopada 2025 r.
W listopadzie 2025 roku przeprowadziliśmy serię kontrolowanych testów. Przeszukiwania prowadzono na komputerze stacjonarnym, korzystając z łącza szerokopasmowego.
Skupiliśmy się na trzech głównych wyszukiwarkach, które analizowaliśmy w naszym raporcie z 2024 r.: Google, Bing i Yahoo. Wprowadziliśmy trzy konkretne frazy: „nudify AI”, „undress AI” i „declothing AI” i skupiliśmy się głównie na wynikach wyszukiwania na pierwszej stronie (nie licząc reklam ani sponsorowanych wyników wyszukiwania).
Kontrola rodzicielska została włączona na poziomie łącza szerokopasmowego, aby zapewnić spójny poziom filtrowania dla wszystkich wyszukiwań. Jednak poszczególne filtry wyszukiwania zostały ustawione na rozmyte lub umiarkowane. Pozwoliło nam to zaobserwować, czy potencjalnie niebezpieczne lub nieodpowiednie materiały nadal mogą pojawiać się w środowisku częściowo filtrowanym, co odzwierciedla bardziej typowe doświadczenia użytkownika.
Ustalenia
Narzędzia i strony do „nudyfikacji” są nadal powszechnie dostępne
W trzech głównych wyszukiwarkach wykorzystanych w badaniu na pierwszej stronie wyników wyszukiwania pojawiło się 21 odrębnych stron poświęconych „nagości”, co pokazuje, jak widoczne i dostępne są nadal te narzędzia.
W wyszukiwaniu hasła „nudify AI” nie znaleziono żadnego z najlepszych wyników w Google, Bing lub Yahoo linkowało bezpośrednio do narzędzi lub stron internetowych służących do „nudyfikacji”. Zamiast tego termin ten wywołał artykuły omawiające narzędzia do „nudyfikacji”, co wskazuje na rosnącą świadomość istnienia tych platform.
Jednak inne hasła wyszukiwania zwróciły bezpośrednie linki do stron internetowych poświęconych „nagości”. Poniższa tabela przedstawia liczbę stron internetowych poświęconych „nagości” wyświetlonych na pierwszej stronie wyników wyszukiwania dla każdej głównej wyszukiwarki.
| Wyszukiwany termin | Google (10 wyników na pierwszej stronie) | Bing (10 wyników na pierwszej stronie) | Yahoo (7 wyników na pierwszej stronie) |
|---|---|---|---|
| „sztuczna inteligencja do rozbierania się” | 8 | 8 | 7 |
| „rozbierz AI” | 9 | 2 | 2 |

Strony internetowe promujące nagość nieproporcjonalnie często przedstawiają ciała kobiet
Spośród 21 odwiedzonych witryn poświęconych „nagości” około połowa (10) miała na stronie głównej zdjęcia przedstawiające kobiety w formie seksualnej i nago.

W zeszłym roku informowaliśmy, że wiele narzędzi do „nudyfikacji” nie działa na zdjęciach chłopców i mężczyzn. Jedna ze stron internetowych oferujących „nudyfikację” potwierdziła to w swoich FAQ, gdzie napisano, że ich model został „zaprojektowany specjalnie do zdjęć kobiecych”.
Niektóre narzędzia dają użytkownikom możliwość określenia cech ciała w ich nagich, generowanych przez sztuczną inteligencję deepfake'ach. Co ciekawe, wiele z najpopularniejszych stron, które badaliśmy, oferowało opcję „wyboru” rozmiaru piersi – co po raz kolejny pokazuje, jak te narzędzia są tworzone z myślą o kobiecych ciałach.


Niektóre strony internetowe pozwalają użytkownikom wpisywać w polu tekstowym podpowiedzi dotyczące wygenerowanego przez sztuczną inteligencję obrazu. Tak było w przypadku 4 z 21 stron internetowych promujących nagość, które przeanalizowaliśmy. Na jednej z nich domyślnym podpowiedzią było: „Naga dziewczyna bez stanika”.

Trenowanie tych modelek na kobiecych ciałach i wykorzystywanie ich do tworzenia nieświadomych wizerunków seksualnych kobiet i dziewcząt jest zarówno przejawem mizoginii, jak i utrwalaniem krzywdy ze względu na płeć. Chociaż niektóre strony zamieszczają w swoich FAQ oświadczenia sugerujące, że wykorzystanie wizerunku innej osoby wymaga zgody, nie natrafiliśmy na żadne mechanizmy w procesie przesyłania, które by to weryfikowały lub egzekwowały. W praktyce stwarza to jedynie iluzję zgody, a nie rzeczywistą ochronę wymaganą przez prawo brytyjskie.
Skutki tego są widoczne w doświadczeniach dzieci. Nasze poprzednie badania wykazały, że 38% nastoletnich dziewcząt, w porównaniu z 27% nastoletnich chłopców, zdecydowanie zgadzało się, że udostępnienie ich nagiego zdjęcia deepfake byłoby gorsze niż udostępnienie prawdziwego aktu. Sugeruje to nieproporcjonalnie duże szkody psychologiczne i lęk przed utratą reputacji, z jakimi borykają się dziewczęta. Ta nierównowaga odzwierciedla szersze wzorce przemocy ze względu na płeć, gdzie kobiety i dziewczęta nie tylko częściej padają ofiarą ataków, ale także cierpią z powodu głębszych konsekwencji społecznych (Ringrose i Regehr, 2023).
Narzędzia do „nudyfikacji” są nadal tanie i łatwe w użyciu
Strony oferujące „nudyfikację” pozostają również tanie, a wiele z nich oferuje określoną liczbę darmowych generowań obrazów lub atrakcyjne plany cenowe, z cenami już od 10 centów za wygenerowanie jednego obrazu. Ich interfejsy są również łatwe w obsłudze – wystarczy kliknąć i przesłać.

Ustawa o bezpieczeństwie w Internecie nie chroni dzieci przed treściami pornograficznymi
Zgodnie z ustawą o bezpieczeństwie online (2023) aplikacje i strony internetowe promujące nagość podlegają przepisom kategorii 5. Przepisy te wymagają, aby każda usługa oferująca treści pornograficzne wdrażała wysoce skuteczne środki kontroli wieku, tak aby dzieci nie miały zazwyczaj dostępu do usługi.
W listopadzie 2025 r. Ofcom nałożył na Itai Tech Ltd. karę pieniężną – firma, która obsługuje i hostuje witrynę poświęconą „nagości” – 50 000 funtów za niedopełnienie obowiązków w zakresie zapewnienia ochrony wiekowej dzieci przed pornografią internetową.
Jednakże żadna z 21 stron, które sprawdziliśmy, nie wymagała od użytkowników potwierdzenia wieku przed odwiedzeniem strony.
Jest to niepokojące, biorąc pod uwagę, że intencje wielu z tych usług są niepodważalne. Jedna strona reklamuje się jako „Stroik na jedno kliknięcie (cyfrowy)”, podczas gdy inna zachęca użytkowników do „doświadczenia mocy sztucznej inteligencji i pełnego zaspokojenia swoich fantazji seksualnych”. Pomimo tego jednoznacznego pozycjonowania, dzieci nadal mogą z łatwością korzystać z tych platform, narażając się na materiały sklasyfikowane przez Ofcom jako pornografia.
Prawo musi iść dalej
Rok po naszym pierwotnym raporcie rzeczywistość jest brutalna: narzędzia wykorzystywane do generowania nagich deepfake'ów są nadal łatwo dostępne i widoczne, utrwalając mizoginię i przemoc wobec kobiet i dziewcząt. Jest to być może jeszcze bardziej niepokojące niż rok temu, biorąc pod uwagę, że weszły w życie przepisy Ustawy o bezpieczeństwie w Internecie, które powinny chronić dzieci przed dostępem do tych stron.
Jednakże badania te pokazują, że obecne przepisy nie są dostosowane do celu, Dlatego rząd musi zakazać w Wielkiej Brytanii narzędzi służących do „nagości”.