Was ist ein Deepfake?
Deepfake-Technologie ist eine Art künstlicher Intelligenz, die Fehlinformationen und Desinformationen verbreiten kann. Bleiben Sie informiert, um zum Schutz von Kindern und Jugendlichen im Internet beizutragen.

Anleitung auf einen Blick
Erhalten Sie schnelle Einblicke und Ratschläge zur Deepfake-Technologie.
Was heißt das?
Deepfakes sind Videos oder Audioaufnahmen, die das Abbild einer Person manipulieren. Dann scheinen sie etwas zu tun/sagen, was sie nie getan haben.
Was sind die Risiken?
Deepfakes haben das Potenzial, falsche Informationen oder Propaganda zu verbreiten. Sie können auch bei Cybermobbing und Betrug eine Rolle spielen.
Wie man Kinder schützt
Kindern durch regelmäßige Gespräche dabei zu helfen, kritisches Denken zu entwickeln, ist ein wesentlicher Bestandteil, um sie vor Schaden zu schützen.
Was ist ein Deepfake?
Die beiden Haupttypen von Deepfakes sind Video und Audio. Video-Deepfakes manipulieren das Aussehen einer Person, während Audio-Deepfakes ihre Stimme manipulieren.
Video- und Audio-Deepfakes wirken häufig zusammen, um irreführende Inhalte zu erstellen. Die Personen, die diese gefälschten Inhalte erstellen, könnten unschuldige Absichten haben. Sie könnten zum Beispiel ein Video drehen, in dem eine Berühmtheit einen lustigen Tanz aufführt, um die Leute zum Lachen zu bringen. Allerdings können selbst die besten Absichten zu Fehlinformationen und Verwirrung führen.
Was sind Video-Deepfakes?
Video-Deepfakes sind die häufigste Art. Personen, die diese Videos erstellen, verwenden künstliche Intelligenz um das Gesicht oder den Körper einer Person in vorhandenem Videomaterial zu ersetzen. Beispiele dafür sind, einen Prominenten dazu zu bringen, etwas Kontroverses zu sagen, oder einen Nachrichtensprecher, der erfundene Geschichten berichtet.
Bei manchen Video-Deepfakes ahmt ein Synchronsprecher die Berühmtheit oder den Originalton nach, um die neue Stimme zu liefern. Alternativ könnte der Ersteller auch das Klonen von Stimmen nutzen.
Was ist Stimmklonen?
Durch das Klonen von Stimmen oder Audio-Deepfakes werden Stimmen anstelle von Videos manipuliert, um wie jemand anderes zu klingen. Ein immer häufiger auftretender Betrug nutzt das Klonen von Stimmen, um gezielt auf Menschen abzuzielen. Eltern erhalten möglicherweise einen verzweifelten Anruf von ihrem Kind, das sofort Geld für einen bestimmten Zweck benötigt. Diese Betrügereien sind äußerst überzeugend und haben zu finanziellen Verlusten geführt.
Jemand könnte auch einen Audio-Deepfake nutzen, um eine andere Person zu schikanieren. Sie könnten zum Beispiel die Stimme eines Klassenkameraden nachahmen, um den Eindruck zu erwecken, als hätten sie etwas gesagt, was sie nicht gesagt haben.
Unabhängig von der Art des Deepfakes ist es wichtig, sich daran zu erinnern, dass jemand ein KI-Tool verwenden muss, um es zu erstellen. Die Ersteller von Deepfakes sind nicht immer klar, aber die KI generiert diese Inhalte nicht automatisch.
Was sind die möglichen Schäden?
Deepfakes können sich auf unterschiedliche Weise auf Menschen auswirken und Kinder und Jugendliche im Internet anfällig für Gefahren machen.
Kinder und Jugendliche könnten Schwierigkeiten haben, gefälschte Videos und Audiodateien zu erkennen, insbesondere da die Technologie immer ausgefeilter wird. Darüber hinaus könnte der verbesserte Zugang zu KI-Tools dazu führen, dass mehr Menschen Deepfakes erstellen können. Dies kann daher die Reichweite potenzieller Schäden erhöhen.
Falsche Informationen und Propaganda
Online-Benutzer können Deepfakes verwenden, um:
- falsche Informationen verbreiten;
- das Vertrauen in Persönlichkeiten des öffentlichen Lebens ruinieren; oder
- manipulieren Gespräche über Politik und andere wichtige Themen.
Kinder entwickeln noch Fähigkeiten zum kritischen Denken und sind daher besonders anfällig für den Glauben an diese Art von Informationen.
Reputationsschaden
Einige Berichte verknüpfen Deepfakes mit Rachepornos. In diesen Fällen fügt der Täter dem Opfer kompromittierende Inhalte wie pornografische Videos oder Bilder hinzu.
Der Täter könnte diese Deepfakes dann nutzen, um Opfer zu zwingen. Dazu könnte die Forderung nach Bezahlung oder echten Bildern gehören, um zu verhindern, dass die Deepfakes weiter verbreitet werden.
Cybermobbing, Belästigung und Missbrauch
Täter könnten Deepfakes auch nutzen, um andere zu schikanieren, indem sie Videos erstellen, die sie verspotten, einschüchtern oder in Verlegenheit bringen sollen.
Die Natur von Deepfakes könnte das Mobbing für das Opfer noch schlimmer machen. Es könnte sogar an missbräuchliches Verhalten grenzen.
A Bericht der Internet Watch Foundation (IWF) 2023 warnte vor zunehmendem KI-generiertem Material zum sexuellen Missbrauch von Kindern (CSAM). Sie identifizierten über 20,000 dieser Bilder, die auf einem gepostet wurden Dunkles web CSAM-Forum über einen Zeitraum von einem Monat. Sie beurteilten mehr als die Hälfte davon als „höchstwahrscheinlich kriminell“.
Obwohl diese Zahl keine Deepfakes umfasst, sagt die IWF, dass „realistische Full-Motion-Videoinhalte alltäglich werden.“ Sie stellen außerdem fest, dass es bereits kurze KI-generierte CSAM-Videos gibt. „Diese werden nur noch realistischer und weiter verbreitet.“
Finanzieller Verlust und Betrug
Manche Audio-Deepfakes oder Voice-Cloning-Betrügereien führen dazu, dass Opfer Geld verlieren. Auch Persönlichkeiten des öffentlichen Lebens wurden mit ihren Konterfeis zur Förderung betrügerischer Investitionen verwendet.
Ein Beispiel ist der YouTuber Mr Beast, der seinen Followern scheinbar neue iPhones anbot. Allerdings war er es nicht wirklich. YouTube ist bei Kindern und Jugendlichen beliebt. Deepfakes, die ihre Lieblingsschöpfer nachahmen, können sie also anfällig für diese Betrügereien machen.
Bleiben wir bei der Technologie, denn künstliche Intelligenz treibt einen Boom der Cyberkriminalität an. Die Kosten werden dieses Jahr voraussichtlich 8 Billionen Dollar erreichen, mehr als die Wirtschaft Japans, so eine Schätzung von Cybersicherheitsexperten. Der größte YouTuber der Welt ist einer von denen, deren Videobild von KI manipuliert wurde, um einen Betrug zu fördern, und selbst BBC-Moderatoren sind nicht immun. Sehen Sie sich das an: Die Einwohner Großbritanniens müssen nicht mehr arbeiten, das ist die Ankündigung unseres heutigen Gastes, Elon Musk. Er wird ein neues Investitionsprojekt vorstellen, während die Verbindung läuft. Ich werde Ihnen mehr über dieses Projekt erzählen, das den Briten neue Möglichkeiten eröffnet, eine Kapitalrendite zu erzielen. Mehr als drei Milliarden Dollar wurden in das neue Projekt investiert, und es ist derzeit bereits in Betrieb.
Seltsam, nicht wahr? Sieht aus wie ich, hört sich an wie ich, sagen Sie vielleicht. Es ist ziemlich schwer, das zu verstehen, nicht wahr? Und deshalb habe ich mit Stephanie Hair gesprochen, sie ist eine unabhängige Technologieexpertin, würde ich sagen.
Stephanie Hair, eine unabhängige Technologieexpertin, wird über die Schwierigkeit interviewt, Deepfakes zu erkennen.
„Viele Leute finden es so schwierig, diese Dinge zu erkennen“, sagt Hair. „Und Sie sind nicht die Ersten und ich glaube leider auch nicht, dass Sie die Letzten sein werden, denn es gibt nichts, was das wirklich verhindern könnte. Es gibt auch keine Vorschriften, um jemanden zur Rechenschaft zu ziehen. Ich bin mir nicht sicher, von wem Sie sich freuen würden, wenn Sie zum Beispiel klagen wollten. Nun, wir sind zu Facebook gegangen und haben gesagt, Sie müssen das entfernen, es ist eine Fälschung, und das haben sie getan … sie haben das getan, Meta hat das seitdem getan. Es gibt jedoch noch viele weitere Deep-Fake-Videos, die die Zuschauer auf Betrügereien hinweisen, und die Sorge ist, dass die Leute sich tatsächlich von ihrem eigenen Geld trennen, weil sie glauben, dass sie echt sind, und das ist die Sorge: Wie können die Leute unterscheiden, was echt ist und was nicht?“
„Ehrlich gesagt bin ich mir nicht sicher, ob ich anhand der technischen Einschränkungen etwas sagen kann, denn wir konnten sogar anhand Ihres Videos erkennen, dass bestimmte Dinge nicht ganz richtig waren. Ich habe sehr deutlich gemacht, dass es nicht echt war. Was Sie wirklich tun sollten, ist sich zu fragen, ob es zu gut klingt, um wahr zu sein. Das ist es wahrscheinlich auch. Wenn es ein bisschen seltsam klingt, ist es das wahrscheinlich auch. Äh, es gibt kein kostenloses Mittagessen.“
„Das gibt es sicherlich nicht, und ich habe einen Artikel der BBC darüber getwittert oder geteilt, der Ihnen Top-Tipps zum Erkennen von Deepfake-Videos gibt.“
So schützen Sie Kinder vor Deepfake-Schäden
Der beste Weg, Kinder online zu schützen, besteht darin, ihnen die Werkzeuge zu geben, mit denen sie Gefahren erkennen und Hilfe erhalten können. So können Sie ihnen helfen, Deepfakes zu umgehen.
Offene Kommunikation ist der Schlüssel
Beginnen Sie frühzeitig und häufig mit Gesprächen über Online-Sicherheit. Besprechen Sie das Konzept von Deepfakes. Erklären Sie, wie Menschen KI nutzen, um sie zu erschaffen, und welche potenziellen Gefahren sie mit sich bringen.
Entwickeln Sie die Medienkompetenz von Kindern
Fördern Sie die Fähigkeiten Ihres Kindes zum kritischen Denken, indem Sie es dazu ermutigen, zu hinterfragen, was es online sieht und hört. Bringen Sie ihnen bei, nach Hinweisen darauf zu suchen, dass ein Video gefälscht sein könnte. Beispiele hierfür sind unnatürliche Bewegungen oder Inkonsistenzen in der Audio- und Videoqualität.
Legen Sie Grenzen und Einstellungen fest
Richten Sie in Ihrem Heim-Breitband- oder Mobilfunknetz eine Kindersicherung ein, um die Gefährdung durch unangemessene Inhalte zu begrenzen. Machen Sie dasselbe mit den Apps, die Ihr Kind verwendet. Arbeiten Sie dann gemeinsam daran, Grenzen dafür festzulegen, wo und wann Geräte verwendet werden sollen.
Sprechen Sie über digitale Staatsbürgerschaft
Helfen Sie Ihrem Kind, ein positives Online-Verhalten zu entwickeln. Halten Sie sie davon ab, gefälschte Inhalte mit anderen zu erstellen oder zu teilen, auch wenn dies nur im Scherz geschieht.
Zeigen Sie ihnen, wie man Quellen überprüft
Besprechen Sie mit Ihrem Kind, wie wichtig es ist, Informationen zu überprüfen, bevor Sie sie weitergeben. Ermutigen Sie sie, nach zuverlässigen Quellen und Faktenprüfungs-Websites zu suchen, bevor sie etwas glauben, was sie online sehen.
Halten Sie die Dinge privat
Sprechen Sie mit Ihren Kindern über Online-Privatsphäre und erklären Sie, wie wichtig es ist, ihren Online-Fußabdruck zu kontrollieren. Denken Sie daran, dass jeder öffentliche Bilder Ihres Kindes für beliebige Zwecke verwenden kann. Beschränken Sie daher die Anzahl der Bilder, die Sie von Ihrem Kind teilen, und bringen Sie ihm bei, die Anzahl der Fotos, die es von sich selbst teilt, einzuschränken.
Deepfake-Leitfaden für Eltern
Neueste Artikel über KI
Weitere Unterstützung bei Deepfakes und anderen Arten von KI-Inhalten finden Sie in diesen Ressourcen.