Bekämpfung von gefälschten Aktfotos durch generative KI
Der Bericht geht davon aus, dass in jeder 30-jährigen Klasse vier Kinder Erfahrungen mit „nackten Deepfakes“ gemacht haben, und fordert die Regierung auf, neue Gesetze einzuführen, um der Zunahme gefälschter Nacktbilder junger Menschen, insbesondere Mädchen, auf der Grundlage generativer künstlicher Intelligenz (GenAI) Einhalt zu gebieten, indem sogenannte „nacktmachende“ Apps verboten werden.
Der Bericht erläutert, wie GenAI es schnell, einfach und günstig gemacht hat, ohne Einverständnis explizite Bilder von normalen Menschen – darunter auch Kinder – zu produzieren. Er argumentiert, dass die aktuelle Gesetzgebung nicht Schritt hält; die KI-Modelle, die zur Generierung sexueller Bilder von Kindern verwendet werden, sind derzeit in Großbritannien nicht illegal, obwohl der Besitz eines Deepfake-Bildes mit sexuellem Inhalt eines Kindes eine Straftat darstellt.
Obwohl Deepfake-Technologie für positive Zwecke wie Bildung oder Ausbildung eingesetzt werden kann, deuten Beweise darauf hin, dass die Mehrheit der Deepfakes erstellt wird, um Schaden anzurichten, beispielsweise durch sexuellen Missbrauch, finanziell motivierte sexuelle Ausbeutung, Fehl- und Desinformation, Betrug oder Schwindel. Einst war die Erstellung gefälschter Nacktbilder ein Phänomen, das sich hauptsächlich gegen weibliche Prominente richtete. Heute ist sie jedoch allgemein zugänglich und betrifft Kinder, wobei Mädchen am wahrscheinlichsten das Ziel sind.
Nacktheitstools werden häufig zur Erstellung von Deepfakes von Frauen und Mädchen verwendet
Der heutige Bericht von Internet Matters zeigt, wie weit verbreitet und benutzerfreundlich „Nacktheits“-Tools im Internet mittlerweile sind. Schätzungsweise 99 % der Nackt-Deepfakes zeigen Mädchen und Frauen, und „Nacktheits“-Modelle funktionieren bei Bildern von Jungen und Männern oft nicht. KI-generierte sexuelle Bilder mit Kindern wurden verwendet, um sexuellen Missbrauch von Kindern unter Kindern, sexuellen Missbrauch durch Erwachsene und Sextortion zu ermöglichen. Sie können die Opfer zutiefst beeinträchtigen und zu Angstzuständen, Depressionen und Selbstmordgedanken führen.
Teenager haben Apps zur Nacktdarstellung verwendet, um sexuell eindeutige Bilder ihrer Klassenkameradinnen zu erstellen und diese Bilder häufig in Gruppenchats und sozialen Medien zu teilen. Mädchen sagten gegenüber Internet Matters, sie seien entsetzt und beschämt und hätten Angst, dass ein Lehrer oder ein Elternteil sie für echt halten könnte.