MENÜ

Was ist ein Deepfake?

Deepfake-Technologie ist eine Art künstlicher Intelligenz, die Fehlinformationen und Desinformationen verbreiten kann. Bleiben Sie informiert, um zum Schutz von Kindern und Jugendlichen im Internet beizutragen.

Eine Mutter hält ein Tablet, umgeben von Sicherheitssymbolen.

Anleitung auf einen Blick

Erhalten Sie schnelle Einblicke und Ratschläge zur Deepfake-Technologie.

Was heißt das?

Deepfakes sind Videos oder Audioaufnahmen, die das Abbild einer Person manipulieren. Dann scheinen sie etwas zu tun/sagen, was sie nie getan haben.

Erfahren Sie mehr über Deepfakes

Was sind die Risiken?

Deepfakes haben das Potenzial, falsche Informationen oder Propaganda zu verbreiten. Sie können auch bei Cybermobbing und Betrug eine Rolle spielen.

Erfahren Sie mehr über Schäden

Wie man Kinder schützt

Kindern durch regelmäßige Gespräche dabei zu helfen, kritisches Denken zu entwickeln, ist ein wesentlicher Bestandteil, um sie vor Schaden zu schützen.

Siehe Sicherheitstipps

Was ist ein Deepfake?

Die beiden Haupttypen von Deepfakes sind Video und Audio. Video-Deepfakes manipulieren das Aussehen einer Person, während Audio-Deepfakes ihre Stimme manipulieren.

Video- und Audio-Deepfakes wirken häufig zusammen, um irreführende Inhalte zu erstellen. Die Personen, die diese gefälschten Inhalte erstellen, könnten unschuldige Absichten haben. Sie könnten zum Beispiel ein Video drehen, in dem eine Berühmtheit einen lustigen Tanz aufführt, um die Leute zum Lachen zu bringen. Allerdings können selbst die besten Absichten zu Fehlinformationen und Verwirrung führen.

Was sind Video-Deepfakes?

Video-Deepfakes sind die häufigste Art. Personen, die diese Videos erstellen, verwenden künstliche Intelligenz um das Gesicht oder den Körper einer Person in vorhandenem Videomaterial zu ersetzen. Beispiele dafür sind, einen Prominenten dazu zu bringen, etwas Kontroverses zu sagen, oder einen Nachrichtensprecher, der erfundene Geschichten berichtet.

Bei manchen Video-Deepfakes ahmt ein Synchronsprecher die Berühmtheit oder den Originalton nach, um die neue Stimme zu liefern. Alternativ könnte der Ersteller auch das Klonen von Stimmen nutzen.

Was ist Stimmklonen?

Durch das Klonen von Stimmen oder Audio-Deepfakes werden Stimmen anstelle von Videos manipuliert, um wie jemand anderes zu klingen. Ein immer häufiger auftretender Betrug nutzt das Klonen von Stimmen, um gezielt auf Menschen abzuzielen. Eltern erhalten möglicherweise einen verzweifelten Anruf von ihrem Kind, das sofort Geld für einen bestimmten Zweck benötigt. Diese Betrügereien sind äußerst überzeugend und haben zu finanziellen Verlusten geführt.

Jemand könnte auch einen Audio-Deepfake nutzen, um eine andere Person zu schikanieren. Sie könnten zum Beispiel die Stimme eines Klassenkameraden nachahmen, um den Eindruck zu erwecken, als hätten sie etwas gesagt, was sie nicht gesagt haben.

Unabhängig von der Art des Deepfakes ist es wichtig, sich daran zu erinnern, dass jemand ein KI-Tool verwenden muss, um es zu erstellen. Die Ersteller von Deepfakes sind nicht immer klar, aber die KI generiert diese Inhalte nicht automatisch.

Was sind die möglichen Schäden?

Deepfakes können sich auf unterschiedliche Weise auf Menschen auswirken und Kinder und Jugendliche im Internet anfällig für Gefahren machen.

Kinder und Jugendliche könnten Schwierigkeiten haben, gefälschte Videos und Audiodateien zu erkennen, insbesondere da die Technologie immer ausgefeilter wird. Darüber hinaus könnte der verbesserte Zugang zu KI-Tools dazu führen, dass mehr Menschen Deepfakes erstellen können. Dies kann daher die Reichweite potenzieller Schäden erhöhen.

Falsche Informationen und Propaganda 

Online-Benutzer können Deepfakes verwenden, um:

  • falsche Informationen verbreiten;
  • das Vertrauen in Persönlichkeiten des öffentlichen Lebens ruinieren; oder
  • manipulieren Gespräche über Politik und andere wichtige Themen.

Kinder entwickeln noch Fähigkeiten zum kritischen Denken und sind daher besonders anfällig für den Glauben an diese Art von Informationen.

Reputationsschaden

Einige Berichte verknüpfen Deepfakes mit Rachepornos. In diesen Fällen fügt der Täter dem Opfer kompromittierende Inhalte wie pornografische Videos oder Bilder hinzu.

Der Täter könnte diese Deepfakes dann nutzen, um Opfer zu zwingen. Dazu könnte die Forderung nach Bezahlung oder echten Bildern gehören, um zu verhindern, dass die Deepfakes weiter verbreitet werden. Erfahren Sie mehr über diese Praxis in unserem Leitfaden zur Sextortion.

Cybermobbing, Belästigung und Missbrauch

Täter könnten Deepfakes auch nutzen, um andere zu schikanieren, indem sie Videos erstellen, die sie verspotten, einschüchtern oder in Verlegenheit bringen sollen.

Die Natur von Deepfakes könnte das Mobbing für das Opfer noch schlimmer machen. Es könnte sogar an missbräuchliches Verhalten grenzen. Erfahren Sie, wie Kindesmissbrauch aussehen kann.

A Bericht der Internet Watch Foundation (IWF) 2023 warnte vor zunehmendem KI-generiertem Material zum sexuellen Missbrauch von Kindern (CSAM). Sie identifizierten über 20,000 dieser Bilder, die auf einem gepostet wurden Dunkles web CSAM-Forum über einen Zeitraum von einem Monat. Sie beurteilten mehr als die Hälfte davon als „höchstwahrscheinlich kriminell“.

Obwohl diese Zahl keine Deepfakes umfasst, sagt die IWF, dass „realistische Full-Motion-Videoinhalte alltäglich werden.“ Sie stellen außerdem fest, dass es bereits kurze KI-generierte CSAM-Videos gibt. „Diese werden nur noch realistischer und weiter verbreitet.“

Finanzieller Verlust und Betrug

Manche Audio-Deepfakes oder Voice-Cloning-Betrügereien führen dazu, dass Opfer Geld verlieren. Auch Persönlichkeiten des öffentlichen Lebens wurden mit ihren Konterfeis zur Förderung betrügerischer Investitionen verwendet.

Ein Beispiel ist der YouTuber Mr Beast, der seinen Followern scheinbar neue iPhones anbot. Allerdings war er es nicht wirklich. YouTube ist bei Kindern und Jugendlichen beliebt. Deepfakes, die ihre Lieblingsschöpfer nachahmen, können sie also anfällig für diese Betrügereien machen.

Beispiele für Deepfake-Betrugsvideos
Videotranskript anzeigen
Bleiben wir bei der Technologie, denn künstliche Intelligenz sorgt für einen Boom der Cyberkriminalität. Laut einer Schätzung von Cybersicherheitsexperten werden die Kosten in diesem Jahr voraussichtlich 8 Billionen Dollar erreichen, mehr als die Wirtschaft Japans. Der größte YouTuber der Welt gehört zu denen, deren Videobild von KI manipuliert wurde, um einen Betrug zu fördern, und selbst BBC-Moderatoren sind nicht davor gefeit.

Schauen Sie sich das an: Britische Einwohner müssen nicht mehr arbeiten, das ist die Ankündigung unseres heutigen Gastes, Elon Musk. Wer wird während der Verbindung ein neues Investitionsprojekt vorstellen? Ich werde Ihnen mehr über dieses Projekt erzählen, das den Briten neue Möglichkeiten eröffnet, eine Kapitalrendite zu erzielen. Mehr als drei Milliarden Dollar wurden in das neue Projekt investiert, derzeit ist es bereits in Betrieb.

Seltsam, nicht wahr? Sieht aus wie ich, klingt wie ich, könnte man sagen. Es ist doch ziemlich schwer, sich damit klar zu werden, nicht wahr? Und so habe ich mit Stephanie Hair gesprochen, sie ist eine unabhängige Technologieexpertin, sollte ich sagen.

Stephanie Hair, eine unabhängige Technologieexpertin, wird über die Schwierigkeit interviewt, Deepfakes zu erkennen.

„Viele Menschen finden es so schwierig, diese Dinge zu erkennen“, sagt Hair. „Und du bist nicht der Erste, und ich glaube leider auch nicht, dass du der Letzte sein wirst, denn es gibt nichts, was das wirklich verhindern könnte.“ Es gibt keine Regelung, die jemanden wirklich zur Rechenschaft zieht. Ich bin mir nicht sicher, an wem Sie Freude haben würden, wenn Sie zum Beispiel klagen wollten. Nun sind wir auf Facebook gegangen und haben gesagt, dass du das entfernen musst, es ist eine Fälschung und das hat es getan... das haben sie getan, Meta hat das seitdem getan. Allerdings gibt es noch viele weitere Deep-Fake-Videos, die die Zuschauer auf Betrügereien hinweisen, und die Sorge ist, dass die Leute tatsächlich ihr eigenes Geld ausgeben, weil sie glauben, dass sie echt sind, und das ist die Sorge: Wie können die Leute unterscheiden, was echt ist? und was ist nicht?``

„Ehrlich gesagt bin ich mir nicht sicher, ob ich das anhand der Art der technischen Einschränkungen beurteilen kann, da wir selbst anhand Ihres Videos erkennen konnten, dass bestimmte Dinge nicht ganz stimmten.“ Ich habe sehr deutlich gemacht, dass es nicht echt ist. Was Sie wirklich tun möchten, ist, sich zu fragen, ob es zu schön klingt, um wahr zu sein, und das ist es wahrscheinlich auch. Wenn es etwas seltsam erscheint, ist es das wahrscheinlich auch. Äh, so etwas wie ein kostenloses Mittagessen gibt es nicht.“

„Das gibt es auf jeden Fall nicht, und ich habe einen von der BBC darüber geschriebenen Artikel getwittert oder geteilt, der Ihnen Top-Tipps gibt, wie Sie Deep-Fake-Videos erkennen können.“

So schützen Sie Kinder vor Deepfake-Schäden

Der beste Weg, die Sicherheit von Kindern im Internet zu gewährleisten, besteht darin, ihnen die Tools an die Hand zu geben, mit denen sie Schäden erkennen und Unterstützung erhalten können. So können Sie ihnen beim Umgang mit Deepfakes helfen.

Offene Kommunikation ist der Schlüssel

Beginnen Sie frühzeitig und häufig mit Gesprächen über Online-Sicherheit. Besprechen Sie das Konzept von Deepfakes. Erklären Sie, wie Menschen KI nutzen, um sie zu erschaffen, und welche potenziellen Gefahren sie mit sich bringen.

Entwickeln Sie die Medienkompetenz von Kindern

Fördern Sie die Fähigkeiten Ihres Kindes zum kritischen Denken, indem Sie es dazu ermutigen, zu hinterfragen, was es online sieht und hört. Bringen Sie ihnen bei, nach Hinweisen darauf zu suchen, dass ein Video gefälscht sein könnte. Beispiele hierfür sind unnatürliche Bewegungen oder Inkonsistenzen in der Audio- und Videoqualität.

Erfahren Sie mehr über falsche Informationen

Legen Sie Grenzen und Einstellungen fest

Richten Sie in Ihrem Heim-Breitband- oder Mobilfunknetz eine Kindersicherung ein, um die Gefährdung durch unangemessene Inhalte zu begrenzen. Machen Sie dasselbe mit den Apps, die Ihr Kind verwendet. Arbeiten Sie dann gemeinsam daran, Grenzen dafür festzulegen, wo und wann Geräte verwendet werden sollen.

ERHALTEN SIE EINE VORLAGE FÜR EINE FAMILIENVEREINBARUNG

Sprechen Sie über digitale Staatsbürgerschaft

Helfen Sie Ihrem Kind, ein positives Online-Verhalten zu entwickeln. Halten Sie sie davon ab, gefälschte Inhalte mit anderen zu erstellen oder zu teilen, auch wenn dies nur im Scherz geschieht.

SEHEN SIE SICH DIE BESTEN MANIER IM INTERNET AN

Zeigen Sie ihnen, wie man Quellen überprüft

Besprechen Sie mit Ihrem Kind, wie wichtig es ist, Informationen zu überprüfen, bevor Sie sie weitergeben. Ermutigen Sie sie, nach zuverlässigen Quellen und Faktenprüfungs-Websites zu suchen, bevor sie etwas glauben, was sie online sehen.

Halten Sie die Dinge privat

Sprechen Sie mit Ihren Kindern über Online-Privatsphäre und erklären Sie, wie wichtig es ist, ihren Online-Fußabdruck zu kontrollieren. Denken Sie daran, dass jeder öffentliche Bilder Ihres Kindes für beliebige Zwecke verwenden kann. Beschränken Sie daher die Anzahl der Bilder, die Sie von Ihrem Kind teilen, und bringen Sie ihm bei, die Anzahl der Fotos, die es von sich selbst teilt, einzuschränken.

Neueste Artikel und Leitfäden zum Thema KI

Weitere Unterstützung bei Deepfakes und anderen Arten von KI-Inhalten finden Sie in diesen Ressourcen.

War das nützlich?
Sagen Sie uns, wie wir es verbessern können