Samenvatting
Wat begon als onschuldig plezier – gezichten verwisselen in filmpjes en memes van beroemdheden maken – is uitgegroeid tot iets grimmigs. Deepfakes worden zo overtuigend dat ze niet meer van echt te onderscheiden zijn. En dat leidt tot een wereld waarin we niet meer blindelings kunnen vertrouwen op wat we zien. Hoe gaan we als samenleving om met deze ongekende uitdagingen op het gebied van waarheid en vertrouwen?
- Volgens het Identity Fraud Report 2024 van Onfido is het aantal online deepfakes tussen 2021 en 2023 met een factor 31 toegenomen.
- Uit het Deepfake Incident Report Q1 2025 blijkt dat fraude met deepfakes in het eerste kwartaal van 2025 al meer dan 200 miljoen dollar aan financiële schade heeft veroorzaakt.
- 41% van de slachtoffers waren bekende mensen, zoals politici en beroemdheden, en 34% waren gewone burgers.
- Volgens een recent onderzoek van University College London hoort 27% van de mensen geen verschil tussen echte en deepfake-audio-opnames.
- “Wat gebeurt er als we in een wereld terechtkomen waarin we niets meer kunnen geloven?” vraagt Dr. Hany Farid, adjunct-decaan van de UC Berkeley School of Information zich af.
Met deepfake-technologie die detectie steeds te slim af is, stevenen we af op een toekomst waarin je niets meer voor lief kunt nemen. De oplossing? Die zit niet alleen in technologie. We moeten opnieuw uitvinden hoe we vertrouwen creëren, hoe we echtheid kunnen valideren, en hoe we met elkaar verbonden blijven in een wereld waarin alles te manipuleren is.
Er was een tijd dat we op onze zintuigen konden vertrouwen om te weten wat echt was. Als iemand je een filmpje liet zien of een audio-opname afspeelde, kon je er redelijk zeker van zijn dat wat je zag of hoorde ook echt gebeurd was. Die tijd ligt nu achter ons. Deepfake-technologie heeft ons begrip van de werkelijkheid aan diggelen geslagen. Iedereen kan nu overtuigende nepafbeeldingen en -video’s creëren die zelfs voor forensische experts nauwelijks van echt te onderscheiden zijn.
In eerste instantie leek het allemaal onschuldig genoeg – grappige face-swap video’s en satirische celebrity-imitaties die viraal gingen op sociale media. Maar de technologie heeft zich razendsnel ontwikkeld van een onschuldige gimmick naar een serieuze bedreiging. We zijn nu in een tijdperk beland waarin het voor iedereen met slechte bedoelingen kinderlijk eenvoudig is geworden om bewijs te vervalsen, deepfake-porno te maken zonder toestemming van de betrokkenen, of misleidende politieke propaganda te verspreiden. De tools daarvoor worden met de dag goedkoper en gebruiksvriendelijker. Wat Hollywood nog niet zo lang geleden miljoenen dollars en maanden aan tijd kostte, kan nu in een handomdraai in elkaar worden geflanst op een doorsnee computer in een willekeurige kelder.
Het verontrustende is dat dit nog maar het topje van de ijsberg is. De deepfakes van vandaag houden de meeste mensen misschien voor de gek, maar die van morgen? Die zijn bijna niet meer van echt te onderscheiden. Binnenkort leven we in een wereld waarin elke video van een disclaimer is voorzien en elk bewijsstuk een eigen bewijs van authenticiteit nodig heeft. Dat betekent dat de kinderen die nu geboren worden zullen opgroeien zonder ooit echt op hun ogen of oren te kunnen vertrouwen. De (online) werkelijkheid wordt dan een soort Wikipedia-artikel dat iedereen zomaar kan bewerken. De vraag is dus: hoe weten we in een wereld waar alles nep kan zijn, wat echt is?
“Deepfake-technologie is zo geavanceerd en betaalbaar geworden dat iedereen nu beelden en stemmen kan creëren die niet van echt te onderscheiden zijn.”
Craig Holman, lobbyist overheidszaken bij Public Citizen
Deepfakes: zegen én vloek
Deepfakes hebben nuttige toepassingen in entertainment, marketing en de gezondheidszorg, maar de technologie wordt steeds vaker gebruikt voor fraude, manipulatie en intimidatie.
Technologie is uit zichzelf natuurlijk niet slecht of kwaadaardig. Het gaat erom hoe we het gebruiken. En dat geldt ook voor deepfakes. Want hoewel we vooral veel horen over de zorgwekkende kanten van deze technologie, zijn er ook mooie toepassingen die de aandacht verdienen. Kijk bijvoorbeeld naar Hollywood. Daar gebruikt de entertainmentindustrie deepfakes om geliefde overleden acteurs weer tot leven te brengen op het witte doek. Filmmakers kunnen er onafgemaakte projecten mee voltooien of nieuwe verhalen vertellen met iconische acteurs. Het is een eerbetoon aan de sterren die niet meer onder ons zijn én een kans voor het publiek om ze nog één keer in actie te zien.
De reclamewereld is natuurlijk ook in deze trend gesprongen. Zo zette de Duitse webshop Zalando onlangs de boel op stelten met hun nieuwe campagne #whereeveryouare. Het bedrijf gebruikte deepfakes van supermodel Cara Delevingne om 290.000 gepersonaliseerde Facebook-videoadvertenties te maken, elk voor een specifieke stad of dorp in Europa. De deepfake van het supermodel sprak daarbij de naam van de stad of het dorp uit (waarbij ze soms hilarisch over haar tong struikelde). Het was een groot succes; zelfs de meest afgelegen dorpen waanden zich ineens het middelpunt van de modewereld.
Het allermooiste is dat deepfakes ons kunnen helpen taalbarrières te doorbreken. Amerikaanse alarmcentrales zetten AI al in voor vertalingen van niet-Engelse spraak, zodat hulpverleners bellers altijd kunnen verstaan, welke taal ze ook spreken. En het beperkt zich niet tot gesproken taal. Deepfake-technologie kan ook worden gebruikt om video’s te maken voor mensen die via gebarentaal communiceren. In de toekomst zouden we bijvoorbeeld in realtime gebarentaaltolken kunnen creëren voor live-evenementen. Dan kunnen concerten, conferenties en uitzendingen die nu alleen voor mensen met een normaal gehoor toegankelijk zijn, ook worden gevolgd door mensen die doof of slechthorend zijn.
Deze technologie biedt ook hoop voor mensen die hun stem hebben verloren door een ongeluk of ziekte. Het bedrijf Acapela Group heeft een product ontwikkeld dat My Own Voice heet. Hiermee kun je opnames van iemands stem (of zelfs van een familielid met een vergelijkbare stem) gebruiken om een stem na te maken die precies hetzelfde klinkt. In juli 2024 schreef voormalig congreslid Jennifer Wexton geschiedenis door een toespraak in het Huis van Afgevaardigden te houden met een AI-gegenereerde stem. Daarmee liet ze zien dat deze technologie niet alleen het vermogen om te communiceren kan herstellen, maar mensen ook hun waardigheid en onafhankelijkheid kan teruggeven.
De duistere kant van deepfakes
Toch moeten we ook de keerzijde onder ogen zien. De hierboven beschreven toepassingen zijn mooi en kunnen het leven van mensen verrijken, maar zoals we allemaal weten wordt deepfake-technologie veel vaker ingezet voor kwaadwillende doeleinden. Deepfake-fraude heeft zijn klauwen al in talloze beroemdheden geslagen. Oplichters gebruiken nepvideo’s en -foto’s van ze om van alles aan de man te brengen. De ene keer zie je Emma Watson zogenaamd jubelen over geweldig keukengerei, de volgende keer probeert Robert Downey Jr. je een louche cryptoprogramma (dat je gouden bergen belooft) aan te smeren. Of het nu om dieetpillen, wondermiddelen of gouden beleggingskansen gaat, voor de meeste scams wordt tegenwoordig een deepfake celebrity gebruikt.
Het zijn trouwens niet alleen bekende gezichten die het doelwit zijn. De technologie wordt steeds vaker ingezet om bedrijven op te lichten. Sluwe criminelen gebruiken deepfakes om zich in videogesprekken voor te doen als senior managers, met als doel werknemers ertoe te brengen grote sommen geld over te maken. Steeds meer bedrijven hebben ook te maken met sollicitantfraude. Nep-sollicitanten gebruiken daarbij tijdens sollicitatiegesprekken en in het gehele wervingsproces deepfake-technologie om de organisatie te infiltreren, meestal voor financieel gewin of bedrijfsspionage. Gartner voorspelt dat tegen 2028 een kwart van alle wereldwijde sollicitanten wel eens uit AI-nepprofielen zou kunnen bestaan.
Ook de politiek ontsnapt niet aan deze zorgwekkende tendens. In een paar jaar tijd hebben we al een stortvloed aan deepfakes gezien waarin politici in gênante situaties worden afgebeeld of uitspraken doen die ze nooit hebben gedaan. Het gaat hierbij om meer dan alleen misinformatie; het tast het vertrouwen van mensen in de politiek aan en kan verkiezingsuitkomsten beïnvloeden. Maar misschien wel het meest verontrustende is de snelgroeiende zwarte markt waar mensen AI-gegenereerde expliciete content van nietsvermoedende slachtoffers kunnen laten maken. Deze deepfake-pornografie is schrikbarend toegankelijk geworden en heeft verwoestende gevolgen voor de slachtoffers ervan.
Niet van echt te onderscheiden
Uit onderzoek blijkt dat deepfakes niet alleen steeds vaker opduiken, maar ook steeds geavanceerder worden. Volgens het Identity Fraud Report 2024 van Onfido zijn er tussen 2021 en 2023 online maar liefst 31 keer meer deepfakes gesignaleerd. De enorme stijging is vooral te wijten aan de opkomst van goedkope en gebruiksvriendelijke AI-tools. “Deepfake-technologie is zo geavanceerd en betaalbaar geworden dat iedereen nu beelden en stemmen kan creëren die niet van echt te onderscheiden zijn”, zegt Craig Holman, lobbyist voor overheidszaken bij consumentenbelangenorganisatie Public Citizen. “Het is een middel voor geweld en intimidatie geworden, vooral tegen vrouwen, door de slachtoffers in volledig verzonnen intieme situaties te plaatsen.”
Het gegeven dat deepfakes (bijna) niet van echt te onderscheiden zijn, maakt dit alles zo huiveringwekkend. Volgens een recent onderzoek van University College London kan 27% van de mensen geen verschil horen tussen echte stemmen en de deepfake versie. Naarmate de technologie beter wordt, zal het percentage dat in de AI-nepperij stinkt alleen maar toenemen, en dat kan grote gevolgen hebben. Uit het Deepfake Incident Report van Resemble AI voor het eerste kwartaal van 2025 blijkt dat fraude met deepfakes alleen al in de eerste drie maanden van 2025 meer dan 200 miljoen dollar aan financiële schade heeft veroorzaakt. 41% van de doelwitten waren publieke figuren, zoals politici en celebrities, terwijl 34% gewone burgers waren. Niemand is dus veilig voor deze groeiende dreiging.
Je ogen kunnen je bedriegen
Van het nabootsen van beroemdheden tot nep-sollicitanten, criminelen worden steeds vindingrijker in het gebruik van deepfake-technologie.
Laten we eens inzoomen op een paar van de meest beruchte gevallen. Eerder dit jaar werd een vrouw in Frankrijk het slachtoffer van een ingenieuze scam waarbij ze bijna een miljoen euro overmaakte aan iemand die zich voordeed als Brad Pitt. Door middel van AI-deepfakes en handig ingeweven feiten uit het nieuws over Pitt’s scheiding, slaagde de oplichter erin deze vrouw te laten geloven dat ze een heuse relatie met de Hollywood-ster had.
En in het Engelse Nottingham werd galeriehoudster Simone Simms beetgenomen door een deepfake van Pierce Brosnan. Maandenlang dacht ze rechtstreeks in contact te zijn met de James Bond-acteur. Ze was daar zo van overtuigd dat ze een expositie van ‘zijn’ kunstwerken opzette, waarvoor ze voor £ 20.000 aan kaartjes verkocht! De fraudeurs wisten haar zelfs nog eens £ 3.000 af te troggelen voor de ‘verzendkosten’ van de kunstwerken. Toen de echte Brosnan hier lucht van kreeg en elke betrokkenheid ontkende, kon Simms niets anders doen dan alles annuleren en het geld van de verkochte kaartjes teruggeven. Haar reputatie- en financiële schade was zo groot dat ze haar galerie in augustus 2024 moest sluiten.
Een van de meest populaire vormen van oplichting van de laatste tijd is het gebruik van deepfakes van bekende mensen om nep-investeringsmogelijkheden te promoten. Zoek vijf minuten op X en je vindt gegarandeerd een nepaccount van Elon Musk die je een geweldige nieuwe cryptomogelijkheid belooft. Maar het blijft niet bij Musk. David Kostin, topstrateeg aandelen bij Goldman Sachs, speelde onlangs ongewild de hoofdrol in een AI-gegenereerde video die zich snel op sociale media verspreidde. In de nepvideo nodigde ‘Kostin’ kijkers uit om zich aan te sluiten bij een investeringsgroep, met de belofte van ‘explosieve groei’. Mensen zouden hun geld in slechts een paar dagen kunnen verdubbelen. Deze oplichting werd gelukkig tijdig ontdekt, maar niet iedereen heeft zoveel geluk. Een triest voorbeeld is een bejaard slachtoffer van boven de tachtig die $ 700.000 kwijtraakte na het zien van – jawel – ‘Elon Musk’ die enthousiast een ‘niet te missen’ investering promootte.
En ook voor spionage wordt deepfake gebruikt, zo ontdekten onderzoekers van Unit 42 van Palo Alto Networks. Noord-Koreaanse IT’ers gebruiken de deepfake-technologie voor het maken van nep-identiteiten waarmee ze op vacatures voor remote werken ‘solliciteren’. Deze spionnen van de Noord-Koreaanse regering hebben het gemunt op bedrijven over de hele wereld en proberen hun systemen binnen te dringen voor spionage en sabotage. Het beveiligingsbedrijf KnowBe4 kreeg ermee te maken toen ze zonder het te weten een van deze deepfake-figuren in dienst namen. Ze kwamen er pas achter nadat de spion al malware op de bedrijfssystemen had geïnstalleerd. Dit is geen op zichzelf staand incident. Organisaties van elke omvang, van grote Fortune 500-bedrijven tot kleine bedrijven met minder dan tien werknemers, zijn al het slachtoffer geworden van deze geavanceerde infiltratiepogingen.
“Wat gebeurt er als we in een wereld terechtkomen waarin we niets meer kunnen geloven?”
Dr. Hany Farid, adjunct-decaan van de UC Berkeley School of Information
Wat brengt de toekomst?
Raken we, nu deepfake-technologie steeds beter wordt, de grip kwijt op wat echt is?
Je bent je er inmiddels vast wel van bewust hoe schadelijk deepfakes kunnen zijn. De verhalen duiken regelmatig in het nieuws op: gemanipuleerde beelden en video’s die levens kapotmaken, namen door het slijk halen en misinformatie verspreiden. En dat terwijl we nog maar aan het begin staan van de deepfake-toekomst. De technologie ontwikkelt zich met de snelheid van een ICE-trein en om de paar maanden zien we weer een sprong voorwaarts in de kwaliteit en listigheid ervan. Naarmate AI-algoritmes slimmer en verfijnder worden, leren ze de subtiele trekjes die ons menselijk maken te kopiëren – hoe de spiertjes rond iemands ogen samentrekken bij het lachen, iemands typische manier van praten, zelfs die kleine, onbewuste gebaren. Het zal niet lang meer duren voordat we het verschil tussen wat echt is en wat door AI is gemaakt, niet meer kunnen zien.
Dekmantel voor leugenaars
De politieke gevolgen van deepfakes zijn beangstigend. Stel je de chaos voor die kan losbarsten tijdens verkiezingscampagnes als er op cruciale momenten overtuigende nepvideo’s van kandidaten opduiken waarin politieke leiders opruiende uitspraken doen, zich ongepast gedragen of gevoelige informatie prijsgeven. Allemaal volledig verzonnen, maar moeilijk of zelfs onmogelijk om snel te ontkrachten. Het democratische proces kan er onherstelbaar door beschadigen, zeker als je bedenkt hoe snel nepnieuws zich via sociale media verspreidt. Het deepfake-verschijnsel geeft daders van onethisch gedrag trouwens ook een slinkse nieuwe uitweg. Het vormt de perfecte dekmantel voor echte misstappen – een fenomeen dat bekendstaat als het ‘liar’s dividend’. Wanneer legitiem bewijs van wangedrag opduikt, zoals echte beelden van corruptie, misbruik of crimineel gedrag, kunnen de verantwoordelijken het eenvoudig afdoen als een deepfake.
Door de snelle opkomst van deepfakes krijgen we een technologische ‘wapenwedloop’ tussen de makers van deepfakes en detectiesystemen. Aan de ene kant staan de makers, die steeds vernuftigere deepfakes produceren. Aan de andere kant staan de detectiesystemen, die moeite hebben om het tempo bij te houden. Zodra nieuwe algoritmes deepfakes weten te ontmaskeren, vinden de deepfake-technologieën alweer een slimmere manier om ze te omzeilen. Veel kenners denken dat dit een strijd is die de detectie nooit kan winnen. “Ik vrees dat de deepfake-wedloop binnenkort voorbij is”, zegt Peter Eisert, hoogleraar visuele informatica aan de Humboldt Universiteit in Berlijn. “Ik denk dat deepfakes zó overtuigend worden dat je ze nauwelijks nog kunt ontmaskeren. We moeten ons dan ook meer richten op technologie die de echtheid van iets garandeert, in plaats van op het opsporen van vervalsingen.”
Een samenleving voorbij de waarheid
Ook voor het bedrijfsleven klinken de alarmbellen: de dreiging van geavanceerde deepfakes is reëel en eist serieuze aandacht. Jarenlang hebben bedrijven grote investeringen gedaan in biometrische beveiliging, zoals gezichtsherkenning en stemverificatie, gezien als de gouden standaard voor identiteitscontrole. Deze systemen regelen van alles, van het ontgrendelen van je smartphone tot bankoverschrijvingen en toegangscontroles voor gebouwen. Maar met de razendsnelle ontwikkeling van deepfakes, blijken deze ooit zo robuuste verdedigingswerken inmiddels kwetsbaar en achterhaald. Stemklonen en gezichtsnabootsing maken het kinderspel om iemand van alles te laten zeggen in bedrieglijk echte video’s. Dit betekent dat het best zou kunnen dat de hele beveiligingsinfrastructuur waar bedrijven en consumenten op leunen, opnieuw moet worden uitgevonden.
Misschien wel het meest ijzingwekkende vooruitzicht is wat dit alles betekent voor de samenleving zelf. We stevenen af op wat velen een ‘post-truth’-maatschappij noemen, waarin geen enkel nieuwsmedium nog te vertrouwen is, waar videobewijs niets meer betekent, waar zien niet langer geloven is. “Wat gebeurt er als we in een wereld terechtkomen waarin we niets meer kunnen geloven?”, is de vraag die dr. Hany Farid, adjunct-decaan van de UC Berkeley School of Information, zichzelf stelt. “Alles is te faken. Het nieuws, foto’s, video’s, audio. In zo’n wereld hoeft niks meer echt te zijn. Iedereen kan alles geloofwaardig ontkennen. Dit is een heel nieuw soort veiligheidsprobleem, een soort van informatiebeveiliging. Hoe weten we nog of de informatie die we elke dag zien, lezen en horen wel klopt?”
Conclusie
Wat kunnen we hieruit opmaken? De geschiedenis leert ons dat elke keer als er een nieuwe communicatietechnologie opkomt – van de drukpers tot social media – er een moeilijke aanpassingsperiode is. In die fase vinden mensen met slechte bedoelingen manieren om er misbruik van te maken, voordat er goede beveiligingen zijn. Met deepfakes zou die periode wel eens verwoestender kunnen zijn dan ooit tevoren. Want als het vertrouwen helemaal wegvalt, richt dat heel veel schade aan in hoe we als mensen met elkaar omgaan.
En toch… misschien kunnen we ook in deze ingewikkelde situatie een klein lichtpuntje vinden. Doordat deepfakes ons dwingen alles wat we zien en horen in twijfel te trekken, helpen ze ons misschien wel naar een samenleving die kritischer en bedachtzamer is. Misschien hebben we deze schok nodig – een technologische klap in ons gezicht die ons eraan herinnert niet alles wat we online tegenkomen zomaar te geloven. Het zou zomaar kunnen dat onze kinderen, die in deze wereld vol misleiding opgroeien, een veel scherpere kritische blik ontwikkelen dan eerdere generaties. En wij? Wij zullen de waarheid misschien niet langer zomaar voor lief nemen, maar elk sprankje oprechtheid en echtheid juist koesteren.
Share via: