Je hebt geen studio nodig. Geen green screen. Geen acteur. En geen Hollywood-budget. Alleen een paar foto’s, een script, en een paar klikken. In nog geen 10 minuten kun jij vandaag een deepfake maken die zó echt lijkt, dat zelfs je moeder erin trapt. 

Klinkt als sciencefiction of enkel voor tech experts? Nope. Het is 2025. En de tools zijn gewoon te koop. Neem bijvoorbeeld HeyGen. Je uploadt een foto, typt een tekst in, kiest een stem – en binnen een paar minuten praat jouw gezicht met jouw stem. Of iemand anders’ gezicht met jouw stem. Of jouw gezicht met iemand anders’ stem. You get the idea. Dat gebeurde laatst bijna bij de moeder van een vriend van mij. Zij dacht dat haar zoon belde. Maar het bleek een scammer te zijn, die zijn stem had gekloond. 

Of Synthesia. Daar kies je uit een hele galerij aan menselijke avatars. Upload je script en… klaar. Jij of iemand anders staat daar ineens een perfect gearticuleerde video toe te spreken – in 40 talen, met natuurlijke mimiek en oogbewegingen.

Wil je nog een stapje verder? DeepFaceLab laat je gezichten 1-op-1 verwisselen in bestaande video’s. Denk aan een filmfragment, een interview of een toespraak. Vervang het gezicht, pas de stem aan, en klaar ben je.

En het blijft niet bij video. GPT-modellen kunnen nu zelfs geloofwaardige valse documenten maken. In India is onlangs ontdekt dat je met simpele prompts nepaadhaar- en PAN-kaarten kon genereren — het digitale identiteitsbewijs waar miljoenen mensen op vertrouwen. Een ramp in wording voor digitale fraude.

Dat klinkt heftig. En dat ís het ook. Want dit is geen toekomstmuziek meer.

Ferrari beleefde vorig jaar bijna z’n eigen deepfake-crisis. Een nep-CEO belde medewerkers met een nagemaakte stem, en vroeg om gevoelige informatie. Het klonk zó echt dat de alarmbellen pas laat gingen rinkelen. Uiteindelijk werd de oplichter ontmaskerd, maar het had net zo goed fout kunnen aflopen.

Ook in Nederland neemt het aantal deepfake-fraudes snel toe. Volgens een recent onderzoek van Nederland Digitaal zijn valse video’s, stemmen en identiteitsbewijzen in opmars als fraudemiddel. Criminelen gebruiken AI om geloofwaardige leugens te fabriceren — en bedrijven én burgers trappen erin. We hebben het niet meer over phishing-mails met spelfouten, maar over hyperrealistische CEO’s die je bellen met een dringend verzoek.

Dus: wat kun je doen?

Eén: Check de bron. Als je een video of stem hoort met een opvallend verzoek, neem altijd apart contact op via een ander kanaal. Geen WhatsApp, maar een belletje. Geen mail, maar een videocall.

Twee: Let op het onmenselijke. Deepfakes zijn goed, maar nog niet perfect. Let op rare knipperpatronen, houterige gezichtsbewegingen of emoties die nét niet kloppen. Bij stemdeepfakes: een monotone toon, onlogisch ritme, of opvallend slechte geluidskwaliteit zijn rode vlaggen.

Drie: Train je team. Of je nu ondernemer bent, HR’er of finance professional: zorg dat je collega’s weten wat deepfakes zijn en hoe ze klinken of eruitzien. Een klein stukje awareness kan duizenden euro’s of je reputatie schelen.

De technologie is hier. De drempel is weg. En het verschil tussen echt en nep vervaagt steeds sneller.

Dus als je morgen een video ziet die “te goed is om waar te zijn”? Check even twee keer. Of drie. Want een deepfake maken… dat kan tegenwoordig iedereen. De vraag is: kun jij het nog herkennen?