Vor einem Jahr veröffentlichte Internet Matters Das neue Gesicht des digitalen Missbrauchs, ein Bericht, der die Verbreitung von Nackt-Deepfakes (KI-generierte sexuell explizite Bilder oder Videos) und die Erfahrungen von Kindern damit untersucht.
Unser damaliger Bericht beleuchtete mehrere wichtige Probleme im Zusammenhang mit Deepfakes von Nacktbildern:
- Tools zur „Nudifizierung“ sind online weit verbreitet und erscheinen in den Ergebnissen gängiger Suchmaschinen. Sie sind zudem günstig und einfach zu bedienen.
- Die überwiegende Mehrheit der Deepfake-Nacktbilder zeigt Frauen und Mädchen.
- 13 % der Kinder waren bereits mit einem Nackt-Deepfake konfrontiert worden, was bei ihnen Angst und Besorgnis auslöste.
Auf Grundlage dieser Forschungsergebnisse fordern wir die Regierung auf, Apps und Websites mit Nacktdarstellungen in Großbritannien zu verbieten.
Im vergangenen Jahr hat die britische Regierung einige Maßnahmen ergriffen, um die Verbreitung von Nackt-Deepfakes einzudämmen. Dazu gehört die Veröffentlichung von Gesetzgebung, die die Erstellung nicht einvernehmlicher, sexuell expliziter Deepfakes unter Strafe stellt. und die Einführung neuer Befugnisse KI-Modelle sollen überprüft werden, um sicherzustellen, dass entsprechende Schutzmaßnahmen vorhanden sind. Um zu verhindern, dass sie Material mit sexuellem Kindesmissbrauch erstellen oder verbreiten. Diese Studie zeigt jedoch, warum weitere Maßnahmen erforderlich sind.
In diesem Blogbeitrag zeigen wir, dass neue Forschungsergebnisse ein Jahr später ein ähnliches Bild zeichnen: „Nudifizierungs“-Tools sind weiterhin weit verbreitet, kostengünstig und zielen überwiegend auf weibliche Körper ab. Stärkere Schutzmaßnahmen sind dringend erforderlich.
Hintergrund
Nackt-Deepfakes verstehen
Deepfakes werden mithilfe von Werkzeugen der künstlichen Intelligenz (KI) erzeugt und sind gefälschte Bilder, Videos oder Audiodateien, die wie echte Inhalte aussehen und sich auch so anfühlen.
Nackte Deepfakes Deepfakes sind eine spezielle Art von Deepfakes, bei denen ein Bild oder Video manipuliert oder generiert wurde, um die Kleidung einer Person (teilweise) zu entfernen, indem deren Gesichtszüge verwendet und auf einen anderen Körper übertragen werden. Schätzungsweise 98 % der Deepfake-Videos und -Bilder enthalten nicht einvernehmliche sexuelle Darstellungen. Fast alle pornografischen Deepfakes zeigen Frauen.
Künstliche Intelligenz wird auch zur Erstellung von Material über sexuellen Kindesmissbrauch (CSAM) eingesetzt. Daten der Internet Watch Foundation (IWF) Laut einer Studie haben sich die Meldungen über KI-generierte CSAM im vergangenen Jahr mehr als verdoppelt und sind von 199 im Jahr 2024 auf 426 im Jahr 2025 gestiegen.
Deepfakes mit sexuellen Darstellungen von Kindern sind im Vereinigten Königreich illegal und werden als kinderpornografisches Material eingestuft. Der Besitz jeglicher Form von kinderpornografischem Material ist eine Straftat.
Gemäß dem Online-Sicherheitsgesetz (2023) ist die Verbreitung nicht einvernehmlicher Deepfake-Aufnahmen intimer Bilder von Erwachsenen strafbar. Die Regierung hat, wie oben beschrieben, weitere Gesetze angekündigt, um die Erstellung nicht einvernehmlicher Deepfakes von Nacktbildern einzudämmen.
Die Werkzeuge zur Erstellung solcher Bilder oder Videos, die als „Nudifizierung“ dienen, dürfen jedoch ab November 2025 in Großbritannien weiterhin legal verwendet werden.
Wir führten im November 2025 eine Reihe kontrollierter Tests durch. Die Suchvorgänge wurden auf einem Desktop-Computer über eine Breitbandverbindung durchgeführt.
Wir konzentrierten uns auf die drei wichtigsten Suchmaschinen, die wir in unserem Bericht für 2024 untersucht hatten: Google, Bing und Yahoo. Wir gaben drei spezifische Suchbegriffe ein: „nudify AI“, „undress AI“ und „declothing AI“ und betrachteten hauptsächlich die Suchergebnisse auf der ersten Seite (ohne Anzeigen oder gesponserte Suchergebnisse zu berücksichtigen).
Um eine einheitliche Filterung aller Suchanfragen zu gewährleisten, wurden die Kindersicherungsfunktionen auf Breitbandebene aktiviert. Die einzelnen Suchfilter wurden jedoch auf „unscharf“ oder „moderat“ eingestellt. Dadurch konnten wir beobachten, ob potenziell unsichere oder unangemessene Inhalte auch in einer Umgebung mit nur teilweiser Filterung, die einer typischen Nutzererfahrung entspricht, weiterhin angezeigt werden.
Befund
Werkzeuge und Websites zur „Nacktmachung“ sind nach wie vor weit verbreitet.
Bei der Auswertung der drei wichtigsten Suchmaschinen, die für die Studie verwendet wurden, erschienen 21 verschiedene „Nudifizierungs“-Websites auf der ersten Seite der Suchergebnisse. Dies zeigt, wie sichtbar und zugänglich diese Tools nach wie vor sind.
Bei der Suche nach „nudify AI“ wird in den Top-Ergebnissen von Google kein Treffer angezeigt. Bing Yahoo verlinkte auch nicht direkt auf „Nudifizierungs“-Tools oder -Websites. Stattdessen führte der Begriff zu Artikeln, die sich mit „Nudifizierungs“-Tools befassten, was auf ein wachsendes Bewusstsein für diese Plattformen hindeutet.
Andere Suchbegriffe lieferten jedoch direkte Links zu Webseiten mit dem Thema „Nacktheit“. Die folgende Tabelle zeigt die Anzahl der Webseiten mit dem Thema „Nacktheit“, die auf der ersten Seite der Suchergebnisse für jede der gängigen Suchmaschinen angezeigt werden.
| Suchbegriff | Google (10 Ergebnisse auf der ersten Seite) | Bing (10 Ergebnisse auf der ersten Seite) | Yahoo (7 Ergebnisse auf der ersten Seite) |
|---|---|---|---|
| „Entkleidung der KI“ | 8 | 8 | 7 |
| „KI entkleiden“ | 9 | 2 | 2 |

Websites, die sich auf Nacktheit spezialisiert haben, stellen überproportional viele weibliche Körper dar.
Von den 21 besuchten einzelnen "Nudifizierungs"-Websites hatten etwa die Hälfte (10) Bilder auf ihrer Startseite, die Frauen sexualisiert und unbekleidet darstellten.

Wir berichteten letztes Jahr, dass viele „Nudifizierungs“-Tools bei Bildern von Jungen und Männern nicht funktionieren. Eine solche Website bestätigte dies in ihren FAQs und erklärte, ihr Modell sei derzeit „speziell für Fotos von Frauen konzipiert“.
Einige Tools bieten Nutzern die Möglichkeit, die Körpermerkmale ihrer KI-generierten Nackt-Deepfakes festzulegen. Besonders auffällig ist, dass viele der von uns untersuchten Top-Websites die Option boten, die Brustgröße auszuwählen – ein weiterer Beleg dafür, dass diese Tools speziell für weibliche Körper entwickelt wurden.


Einige Websites ermöglichen es Nutzern, über ein Textfeld Anweisungen für das KI-generierte Bild einzugeben. Dies war bei 4 der 21 von uns untersuchten Websites mit freizügigen Darstellungen der Fall. Auf einer dieser Websites lautete die Standardanweisung: „Ein nacktes Mädchen ohne BH“.

Das Training dieser Models anhand weiblicher Körper und deren Verwendung zur Erstellung nicht einvernehmlicher sexueller Darstellungen von Frauen und Mädchen ist Ausdruck von Frauenfeindlichkeit und trägt zur Aufrechterhaltung geschlechtsspezifischer Diskriminierung bei. Obwohl einige Websites in ihren FAQs darauf hinweisen, dass die Einwilligung zur Verwendung fremder Bilder erforderlich ist, konnten wir im Upload-Prozess keine Mechanismen zur Überprüfung oder Durchsetzung dieser Einwilligung feststellen. In der Praxis entsteht dadurch lediglich der Anschein von Einwilligung, anstatt des nach britischem Recht erforderlichen Schutzes.
Die Auswirkungen davon zeigen sich in den Erfahrungen von Kindern. Unsere vorherige Studie ergab, dass 38 % der befragten Mädchen im Vergleich zu 27 % der befragten Jungen der Aussage, dass die Verbreitung eines Deepfake-Nacktbildes von ihnen schlimmer wäre als die Veröffentlichung eines echten Nacktbildes, voll und ganz zustimmten. Dies deutet auf den unverhältnismäßig hohen psychischen Schaden und die Angst vor Rufschädigung hin, denen Mädchen ausgesetzt sind. Dieses Ungleichgewicht spiegelt breitere Muster geschlechtsspezifischer Gewalt wider, bei der Frauen und Mädchen werden nicht nur häufiger zur Zielscheibe, sondern leiden auch unter gravierenderen sozialen Folgen. (Ringrose und Regehr, 2023).
Werkzeuge zur „Nacktmachung“ sind nach wie vor günstig und einfach zu bedienen.
Auch die Preise für „Nudifizierungs“-Websites sind weiterhin niedrig. Viele bieten eine bestimmte Anzahl kostenloser Bildgenerierungen oder großzügige Preispläne mit Preisen ab 10 Cent pro Bild. Die Benutzeroberflächen sind zudem benutzerfreundlich und ermöglichen ein einfaches Hochladen per Klick.

Das Online-Sicherheitsgesetz schützt Kinder nicht ausreichend vor pornografischen Inhalten
Gemäß dem Online-Sicherheitsgesetz (2023) fallen Apps und Websites mit pornografischen Inhalten unter die Kategorie-5-Regelungen. Diese Regeln verpflichten alle Dienste, die pornografische Inhalte anbieten, hochwirksame Alterssicherungsmaßnahmen zu implementieren, um Kindern den Zugang zu diesen Diensten zu verwehren.
Im November 2025 verhängte Ofcom eine Geldstrafe gegen Itai Tech Ltd. – ein Unternehmen, das eine „Nudifizierungs“-Website betreibt und hostet – 50,000 Pfund Strafe wegen Nichterfüllung der Altersgarantieverpflichtungen zum Schutz von Kindern vor Online-Pornografie.
Allerdings verlangte keine der 21 von uns untersuchten Websites von den Nutzern eine Altersverifizierung vor dem Besuch der Website.
Dies ist besorgniserregend, da die Absicht vieler dieser Dienste unmissverständlich ist. Eine Seite wirbt mit dem Slogan „Strip-Show mit einem Klick (digital)“, während eine andere Nutzer dazu auffordert, „die Macht der KI zu erleben und ihre sexuellen Fantasien vollends auszuleben“. Trotz dieser eindeutigen Positionierung haben Kinder weiterhin problemlos Zugang zu diesen Plattformen und werden so Material ausgesetzt, das Ofcom als Pornografie eingestuft hat.
Das Gesetz muss weiter gehen
Ein Jahr nach unserem ersten Bericht ist die Realität erschreckend: Die Werkzeuge zur Erstellung von Nackt-Deepfakes sind weiterhin leicht zugänglich und offen sichtbar und tragen so zur Aufrechterhaltung von Frauenfeindlichkeit und Gewalt gegen Frauen und Mädchen bei. Dies ist heute vielleicht sogar noch besorgniserregender als vor einem Jahr, da Maßnahmen des Online Safety Act in Kraft getreten sind, die Kinder eigentlich vor dem Zugriff auf diese Seiten schützen sollen.
Diese Studie zeigt jedoch, dass die aktuelle Gesetzgebung ungeeignet ist. Deshalb muss die Regierung in Großbritannien „Nudifizierungswerkzeuge“ verbieten..