MENU

Wat is een deepfake?

Deepfake-technologie is een vorm van kunstmatige intelligentie die desinformatie en desinformatie kan verspreiden. Blijf op de hoogte om kinderen en jongeren online te beschermen.

Een moeder houdt een tablet vast, omgeven door veiligheidspictogrammen.

Begeleiding in één oogopslag

Krijg snel inzicht en advies over deepfake-technologie.

Wat betekent het?

Deepfakes zijn video- of audio-opnamen die de gelijkenis van een persoon manipuleren. Ze lijken dan iets te doen/zeggen wat ze nooit hebben gedaan.

Meer informatie over deepfakes

Wat zijn de risico's?

Deepfakes hebben het potentieel om valse informatie of propaganda te verspreiden. Ze kunnen ook een rol spelen bij cyberpesten en oplichting.

Leer meer over schade

Hoe kinderen te beschermen?

Kinderen helpen kritisch denken te ontwikkelen door regelmatig gesprekken te voeren, is een belangrijk onderdeel om hen te beschermen tegen schade.

Zie veiligheidstips

Wat is een deepfake?

De twee belangrijkste soorten deepfakes zijn video en audio. Video-deepfakes manipuleren het uiterlijk van een persoon, terwijl audio-deepfakes hun stem manipuleren.

Video- en audio-deepfakes werken vaak samen om misleidende inhoud te creëren. De mensen die deze nep-inhoud maken, hebben mogelijk onschuldige bedoelingen. Ze kunnen bijvoorbeeld een video maken waarin een beroemdheid een grappig dansje doet om mensen aan het lachen te maken. Zelfs de beste bedoelingen kunnen echter tot verkeerde informatie en verwarring leiden.

Wat zijn video-deepfakes?

Video-deepfakes zijn het meest voorkomende type. Mensen die deze video's maken, gebruiken kunstmatige intelligentie om iemands gezicht of lichaam in bestaande videobeelden te vervangen. Voorbeelden hiervan zijn onder meer een beroemdheid iets controversieel laten zeggen of een nieuwslezer die verzonnen verhalen rapporteert.

Bij sommige video-deepfakes imiteert een stemacteur de beroemdheid of originele audio om de nieuwe stem te leveren. Als alternatief kan de maker ook spraakklonen gebruiken.

Wat is stemklonen?

Stemklonen, of deepfakes van audio, manipuleren stemmen in plaats van video om als iemand anders te klinken. Een steeds vaker voorkomende zwendel maakt gebruik van stemklonen om mensen te targeten. Ouders kunnen een paniekerig telefoontje krijgen van hun kind dat onmiddellijk geld nodig heeft voor een bepaald doel. Deze oplichting is uiterst overtuigend en heeft geleid tot financiële verliezen.

Iemand kan ook een audio-deepfake gebruiken om iemand anders te pesten. Ze kunnen bijvoorbeeld de stem van een klasgenoot imiteren, zodat het lijkt alsof hij iets heeft gezegd wat hij niet heeft gezegd.

Ongeacht het type deepfake is het belangrijk om te onthouden dat iemand een AI-tool moet gebruiken om deze te creëren. Deepfake-makers zijn niet altijd duidelijk, maar AI genereert deze inhoud niet automatisch.

Wat zijn de mogelijke schades?

Deepfakes kunnen mensen op verschillende manieren beïnvloeden en kunnen kinderen en jongeren blootstellen aan online schade.

Kinderen en jongeren kunnen moeite hebben met het herkennen van nepvideo’s en -audio, vooral omdat de technologie steeds geavanceerder wordt. Bovendien zou de grotere toegankelijkheid van AI-tools kunnen betekenen dat meer mensen deepfakes kunnen maken. Dit kan daarom het bereik van potentiële schade vergroten.

Valse informatie en propaganda 

Onlinegebruikers kunnen deepfakes gebruiken om:

  • valse informatie verspreiden;
  • het vertrouwen in publieke figuren ruïneren; of
  • manipuleren van gesprekken over politiek en andere belangrijke kwesties.

Kinderen ontwikkelen nog steeds vaardigheden op het gebied van kritisch denken, waardoor ze bijzonder kwetsbaar zijn om dit soort informatie te geloven.

Reputatieschade

Sommige rapporten koppelen deepfakes aan wraakporno. In deze gevallen betrekt de dader het slachtoffer bij compromitterende inhoud, zoals pornografische video's of afbeeldingen.

De dader zou deze deepfakes vervolgens kunnen gebruiken om slachtoffers te dwingen. Dit kan het eisen van betaling of echte afbeeldingen omvatten om te voorkomen dat ze de deepfakes op grotere schaal delen. Lees meer over deze praktijk in onze gids over sextortion.

Cyberpesten, intimidatie en misbruik

Daders kunnen deepfakes ook gebruiken om anderen te pesten door video's te maken die bedoeld zijn om hen te bespotten, te intimideren of in verlegenheid te brengen.

De aard van deepfakes kan het pesten ernstiger maken voor het slachtoffer. Het zou zelfs kunnen grensen aan misbruik. Ontdek hoe kind-op-kindmishandeling eruit zou kunnen zien.

A Internet Watch Foundation (IWF)-rapport uit 2023 waarschuwde voor de toename van door AI gegenereerd materiaal over seksueel misbruik van kinderen (CSAM). Ze identificeerden meer dan 20,000 van deze afbeeldingen die op één foto waren geplaatst donker web CSAM-forum gedurende een periode van één maand. Ze beoordeelden meer dan de helft hiervan als ‘zeer waarschijnlijk crimineel’.

Hoewel dit aantal geen deepfakes omvat, zegt de IWF dat “realistische full-motion video-inhoud gemeengoed zal worden.” Ze merken ook op dat er al korte, door AI gegenereerde CSAM-video's bestaan. “Deze zullen alleen maar realistischer en wijdverspreider worden.”

Financiële verliezen en oplichting

Sommige audio-deepfakes of oplichting met stemklonen zorgen ervoor dat slachtoffers geld verliezen. Hun beeltenis wordt ook gebruikt om zwendelinvesteringen te promoten.

Een voorbeeld is YouTuber Mr Beast, die zijn volgers nieuwe iPhones leek aan te bieden. Maar eigenlijk was hij het niet. YouTube is populair onder kinderen en tieners. Deepfakes die hun favoriete makers nabootsen, kunnen hen dus blootstellen aan deze oplichting.

Voorbeelden van deepfake-zwendelvideo's
Videotranscript weergeven
Laten we bij de technologie blijven, want kunstmatige intelligentie zorgt voor een hausse aan cybercriminaliteit. De kosten zullen dit jaar naar verwachting 8 biljoen dollar bedragen, meer dan de economie van Japan volgens een schatting van cyberveiligheidsexperts. De grootste YouTuber ter wereld behoort tot degenen van wie het videobeeld door AI is gemanipuleerd om oplichting te promoten, en zelfs BBC-presentatoren zijn niet immuun.

Kijk hier eens naar: Britse inwoners hoeven niet langer te werken, dat is de aankondiging van onze gast vandaag, Elon Musk. Wie zal een nieuw investeringsproject onthullen terwijl de verbinding loopt. Ik zal u meer vertellen over dit project dat nieuwe mogelijkheden opent voor Britten om rendement op hun investering te ontvangen. Er werd meer dan drie miljard dollar geïnvesteerd in het nieuwe project, en het is momenteel al operationeel.

Vreemd, nietwaar? Lijkt op mij, klinkt op mij, zou je kunnen zeggen. Het is nogal moeilijk, nietwaar, om hierachter te komen? En dus sprak ik met Stephanie Hair, zij is een onafhankelijke technologie-expert, zou ik moeten zeggen.

Stephanie Hair, een onafhankelijke technologie-expert, wordt geïnterviewd over de moeilijkheid van het opsporen van deepfakes.

``Veel mensen vinden het zo moeilijk om deze dingen op te merken'', zegt Hair. ‘En je bent helaas niet de eerste en ik denk ook niet dat je de laatste zult zijn, want er is niets wat dit echt kan tegenhouden. Er is geen enkele regelgeving die iemand ter verantwoording kan roepen. Ik weet niet zeker van wie je vreugde zou krijgen als je bijvoorbeeld een rechtszaak zou willen aanspannen. Nu kwamen we op Facebook en zeiden dat je dit moest verwijderen, het is nep en het is gebeurd... dat hebben ze gedaan, Meta heeft dat sindsdien gedaan. Er zijn echter nog veel meer diepgaande nepvideo's die kijkers op oplichting wijzen en de zorg is dat mensen daadwerkelijk afstand doen van hun eigen geld omdat ze denken dat het echt is. En dit is de zorg: hoe weten mensen wat echt is? en wat niet?``

``Eerlijk gezegd ben ik er niet zeker van dat ik dit aan de hand van de technische beperkingen probeer te achterhalen, omdat we zelfs met jouw video konden zien dat er bepaalde dingen niet helemaal klopten. Ik heb heel duidelijk gemaakt dat het niet legitiem was. Wat je echt wilt doen, is jezelf afvragen of het te mooi klinkt om waar te zijn, maar dat is het waarschijnlijk ook. Als het een beetje raar lijkt, is het dat waarschijnlijk ook. Er bestaat niet zoiets als een gratis lunch.``

``Dat is zeker niet het geval, en ik heb hierover een artikel getweet of gedeeld, geschreven door de BBC, waarin je toptips krijgt over hoe je deepfake-video's kunt herkennen.``

Hoe kinderen te beschermen tegen deepfake-schade

De beste manier om kinderen online veilig te houden, is door ze de middelen te geven om schade op te sporen en ondersteuning te krijgen. Hier leest u hoe u hen kunt helpen bij het navigeren door deepfakes.

Open communicatie is de sleutel

Begin vroeg en vaak gesprekken over online veiligheid. Bespreek het concept van deepfakes. Leg uit hoe mensen AI gebruiken om deze te creëren en welke potentiële gevaren deze met zich meebrengen.

Ontwikkel de mediageletterdheid van kinderen

Ontwikkel de kritische denkvaardigheden van uw kind door hem aan te moedigen zich af te vragen wat hij online ziet en hoort. Leer ze zoeken naar aanwijzingen dat een video mogelijk nep is. Voorbeelden hiervan zijn onnatuurlijke bewegingen of inconsistenties in audio- en videokwaliteit.

LEER OVER VALSE INFORMATIE

Stel grenzen en instellingen in

Stel op uw breedband- of mobiele thuisnetwerk ouderlijk toezicht in om de blootstelling aan ongepaste inhoud te beperken. Doe hetzelfde met apps die uw kind gebruikt. Werk vervolgens samen om grenzen te stellen voor waar en wanneer apparaten moeten worden gebruikt.

KRIJG FAMILIEOVEREENKOMST-SJABLOON

Over digitaal burgerschap gesproken

Help uw kind positief online gedrag te ontwikkelen. Ontmoedig hen om nepinhoud met anderen te maken of te delen, ook al doen ze dit alleen als grap.

ZIE TOP INTERNETMANNERS

Laat ze zien hoe ze bronnen kunnen verifiëren

Bespreek met uw kind hoe belangrijk het is om informatie te verifiëren voordat u deze deelt. Moedig ze aan om betrouwbare bronnen en websites voor feitencontrole te raadplegen voordat ze iets geloven wat ze online zien.

Houd dingen privé

Praat met uw kinderen over online privacy en leg uit hoe belangrijk het is om hun online voetafdruk te beheersen. Houd er rekening mee dat iedereen openbare afbeeldingen van uw kind voor welk doel dan ook kan gebruiken. Beperk dus de afbeeldingen die u van uw kind deelt en leer ze de foto's die zij van zichzelf delen te beperken.

Nieuwste artikelen en handleidingen over AI

Vind meer ondersteuning bij deepfakes en andere soorten AI-inhoud met deze bronnen.

Was dit nuttig?
Vertel ons hoe we het kunnen verbeteren