MENÜ

Was ist Auszieh-KI? Orientierungshilfe für Eltern und Betreuer

Ein Mädchen sitzt mit traurigem Gesichtsausdruck vor ihrem Telefon.

Die Fähigkeiten und die Technologie der künstlichen Intelligenz nehmen weiter zu. Undress AI ist ein Beispiel, das junge Menschen anfällig für Schaden machen könnte.

Erfahren Sie, was es ist, damit Sie Ihr Kind online besser schützen können.

Was ist „KI ausziehen“?

Undress AI beschreibt eine Art Tool, das mithilfe künstlicher Intelligenz die Kleidung von Personen in Bildern entfernt.

Obwohl die Funktionsweise jeder App oder Website unterschiedlich sein kann, bieten alle einen ähnlichen Service an. Obwohl das manipulierte Bild nicht den echten nackten Körper des Opfers zeigt, kann es darauf hinweisen.

Täter, die KI-Tools zum Ausziehen verwenden, behalten die Bilder möglicherweise für sich oder geben sie weiter. Sie könnten diese Bilder für verwenden sexuelle Nötigung (Sextortion), Mobbing/Missbrauch oder als eine Form von Rachepornos.

Kindern und Jugendlichen droht zusätzlicher Schaden, wenn ihnen jemand mit dieser Technik „auszieht“. A Bericht der Internet Watch Foundation fanden über 11,000 potenziell kriminelle, KI-generierte Bilder von Kindern in einem Dark-Web-Forum, das sich mit Material zum sexuellen Missbrauch von Kindern (Child Sexual Abuse Material, CSAM) beschäftigte. Sie bewerteten rund 3,000 Bilder als strafbar.

Das IWF sagte, es habe auch „viele Beispiele von KI-generierten Bildern mit bekannten Opfern und berühmten Kindern“ gefunden. Generative KI kann nur dann überzeugende Bilder erstellen, wenn sie aus präzisem Quellmaterial lernt. Im Wesentlichen müssten KI-Tools, die CSAM generieren, aus echten Bildern lernen, die Kindesmissbrauch zeigen.

Risiken, auf die Sie achten sollten

Undress-KI-Tools verwenden suggestive Sprache, um Benutzer anzulocken. Daher ist es wahrscheinlicher, dass Kinder ihrer Neugier auf der Grundlage dieser Sprache folgen.

Kinder und Jugendliche verstehen das Gesetz möglicherweise noch nicht. Daher fällt es ihnen möglicherweise schwer, schädliche Tools von solchen zu unterscheiden, die harmlosen Spaß fördern.

Unangemessene Inhalte und Verhaltensweisen

Die Neugier und Neuheit eines KI-Tools zum Ausziehen könnte Kinder aussetzen unpassender Inhalt. Da es sich nicht um ein „echtes“ Nacktbild handelt, denken sie möglicherweise, dass die Verwendung dieser Tools in Ordnung ist. Wenn sie das Bild dann „zum Lachen“ mit ihren Freunden teilen, verstoßen sie wahrscheinlich ohne es zu wissen gegen das Gesetz.

Ohne das Eingreifen eines Elternteils oder Betreuers könnten sie das Verhalten fortsetzen, auch wenn es andere verletzt.

Datenschutz- und Sicherheitsrisiken

Viele legitime generative KI-Tools erfordern eine Zahlung oder ein Abonnement, um Bilder zu erstellen. Wenn eine Deepnude-Website also kostenlos ist, kann es sein, dass sie qualitativ minderwertige Bilder produziert oder laxe Sicherheitsvorkehrungen bietet. Wenn ein Kind ein bekleidetes Bild von sich selbst oder einem Freund hochlädt, könnte es von der Website oder App missbraucht werden. Dazu gehört auch die „Deepnude“, die dadurch entsteht.

Es ist unwahrscheinlich, dass Kinder, die diese Tools verwenden, die Nutzungsbedingungen oder Datenschutzrichtlinien lesen, sodass sie dem Risiko ausgesetzt sind, dass sie sie möglicherweise nicht verstehen.

Erstellung von Material über sexuellen Missbrauch von Kindern (CSAM)

Die IWF berichtete auch, dass Fälle von „Selbst erstellte“ CSAM, die online verbreitet werden, stiegen um 417 % von 2019 bis 2022. Beachten Sie, dass der Begriff „selbst erstellt“ unvollkommen ist, da in den meisten Fällen Täter Kinder dazu zwingen, diese Bilder zu erstellen.

Allerdings könnten Kinder durch den Einsatz von Auszieh-KI unwissentlich KI-generiertes CSAM erstellen. Wenn sie ein bekleidetes Bild von sich selbst oder einem anderen Kind hochladen, könnte jemand dieses Bild „nackt“ machen und es weiter verbreiten.

Cybermobbing, Missbrauch und Belästigung

Genau wie bei anderen Arten von Deepfakes können Menschen KI-Tools zum Ausziehen oder „Deepnudes“ verwenden, um andere zu schikanieren. Dazu könnte die Behauptung gehören, dass ein Peer ein Nacktbild von sich selbst geschickt hat, obwohl dies nicht der Fall war. Oder es könnte die Verwendung von KI beinhalten, um einen Akt mit Merkmalen zu erstellen, die schikaniert und dann verspottet werden.

Es ist wichtig, sich daran zu erinnern Das Teilen von Nacktbildern von Gleichaltrigen ist sowohl illegal als auch missbräuchlich.

Wie verbreitet ist die „Deepnude“-Technologie?

Untersuchungen zeigen, dass der Einsatz dieser Art von KI-Tools zunimmt, insbesondere um weiblichen Opfern die Kleidung auszuziehen.

Auf einer Undress-AI-Website heißt es, dass ihre Technologie „nicht für den Einsatz bei männlichen Probanden gedacht“ sei. Dies liegt daran, dass sie das Tool mithilfe weiblicher Bilder trainiert haben, was für die meisten dieser Arten von KI-Tools gilt. Mit dem KI-generierten CSAM, das die Internet Watch Foundation untersuchte, waren in 99.6 % davon auch weibliche Kinder vertreten.

Forschung von Graphika wies auf einen 2000-prozentigen Anstieg von Empfehlungslink-Spam für Undress-KI-Dienste im Jahr 2023 hin. Der Bericht stellte außerdem fest, dass 34 dieser Anbieter in einem Monat über 24 Millionen einzelne Besucher auf ihren Websites verzeichneten. Sie prognostizieren „weitere Fälle von Online-Schaden“, einschließlich Sextortion und CSAM.

Es ist wahrscheinlich, dass die Täter weiterhin auf Mädchen und Frauen und nicht auf Jungen und Männer abzielen, insbesondere wenn diese Instrumente hauptsächlich aus Frauenbildern lernen.

Was sagt das britische Recht?

Bis vor Kurzem verstießen diejenigen, die sexuell eindeutige Deepfake-Bilder erstellten, nicht gegen das Gesetz, es sei denn, die Bilder zeigten Kinder.

Allerdings kündigte das Justizministerium a Neues Gesetz diese Woche das wird das ändern. Nach dem neuen Gesetz werden Personen, die ohne deren Zustimmung sexuell eindeutige Deepfake-Bilder von Erwachsenen erstellen, strafrechtlich verfolgt. Den Verurteilten droht außerdem eine „unbegrenzte Geldstrafe“.

Dies widerspricht a Aussage von Anfang 2024. Darin hieß es, dass die Erstellung eines Deepfake-Intimbildes „nicht so schädlich oder strafbar sei, dass es eine Straftat darstellen könnte“.

Erst letztes Jahr konnten Täter erstellen und Teilen Sie diese Bilder (von Erwachsenen), ohne gegen das Gesetz zu verstoßen. Allerdings ist die Online-Sicherheitsgesetz hat es im Januar 2024 illegal gemacht, KI-generierte intime Bilder ohne Zustimmung zu teilen.

Im Allgemeinen sollte dieses Gesetz alle Bilder abdecken, die sexueller Natur sind. Dazu gehören auch solche, die nackte oder teilweise nackte Motive zeigen.

Zu beachten ist jedoch, dass dieses Gesetz auf der Absicht beruht, Schaden anzurichten. Eine Person, die einen sexuell eindeutigen Deepfake erstellt, muss dies also tun, um das Opfer zu demütigen oder ihm auf andere Weise zu schaden. Das Problem dabei ist, dass es ziemlich schwierig ist, die Absicht nachzuweisen. Daher könnte es schwierig sein, Parteien, die sexuell eindeutige Deepfakes erstellen, tatsächlich strafrechtlich zu verfolgen.

So schützen Sie Kinder vor dem Ausziehen durch KI

Unabhängig davon, ob Sie befürchten, dass Ihr Kind KI-Tools zum Ausziehen verwendet oder zum Opfer wird, finden Sie hier einige Maßnahmen, die Sie ergreifen können, um es zu schützen.

Führen Sie das erste Gespräch

Über ein Viertel der britischen Kinder geben an, im Alter von 11 Jahren Pornografie gesehen zu haben. Einer von zehn gibt an, mit 9 Jahren zum ersten Mal Pornos gesehen zu haben. Die Neugier könnte dazu führen, dass Kinder auch nach KI-Tools zum Ausziehen suchen. Bevor es an diesen Punkt kommt, ist es wichtig, über angemessene Inhalte, positive Beziehungen und gesundes Verhalten zu sprechen.

SIEHE PORNO-GESPRÄCHSLEITFADEN

Legen Sie Website- und App-Limits fest

Blockieren Sie Websites und legen Sie Inhaltsbeschränkungen für Breitband- und Mobilfunknetze sowie Geräte und Apps fest. Dadurch verringert sich die Wahrscheinlichkeit, dass sie beim Stöbern im Internet auf unangemessene Inhalte stoßen. Der Zugriff auf diese Websites kann Teil eines umfassenderen Gesprächs mit Ihnen sein.

WÄHLEN SIE EINEN FÜHRER

Stärken Sie die digitale Widerstandsfähigkeit Ihrer Kinder

Digitale Resilienz ist eine Fähigkeit, die Kinder entwickeln müssen. Das bedeutet, dass sie potenzielle Online-Schäden erkennen und bei Bedarf Maßnahmen ergreifen können. Sie wissen, wie sie Inhalte, auf die sie stoßen, melden, blockieren und kritisch darüber nachdenken. Dazu gehört, dass sie wissen, wann sie Hilfe von ihren Eltern, Betreuern oder anderen vertrauenswürdigen Erwachsenen benötigen.

SIEHE DIGITAL RESILIENCE TOOLKIT

Ressourcen für weitere Unterstützung

Erfahren Sie mehr über künstliche Intelligenz und finden Sie Ressourcen, um Opfer von Undress-KI zu unterstützen.

War das nützlich?
Sagen Sie uns, wie wir es verbessern können

Kürzliche Posts