Oplichting 2.0: hoe AI gebruikt wordt om je te misleiden

Foto van Richard van Hooijdonk
Richard van Hooijdonk
Criminelen vinden steeds geavanceerdere manieren om AI voor hun karretje te spannen. Kunnen wij deze nieuwe vormen van bedrog nog wel op tijd herkennen?

Samenvatting

AI komt steeds vaker in verkeerde handen terecht en dat is een zorgwekkende ontwikkeling. Keer op keer duiken er gevallen op die laten zien op welke doortrapte manieren criminelen deze technologie inzetten. Financiële oplichting, gesjoemel met vastgoed, aanvallen op sterren en de pers, noem het maar op. AI wordt voor van alles en nog wat misbruikt, en daar worden steeds meer gewone mensen, bedrijven, beroemdheden en zelfs grote organisaties de dupe van.

  • Deepfake-videogesprekken waarbij de stem van leidinggevenden wordt geïmiteerd, zijn de nieuwste trend in bedrijfsfraude. Dit heeft miljoenenverliezen tot gevolg. 
  • Met behulp van AI maken criminelen overtuigende nepopnames waarin kinderen in nood lijken – om ouders de stuipen op het lijf te jagen en geld af te persen.
  • In Duitsland hebben betogers audio-deepfakes gebruikt om het vertrouwen in de journalistiek aan te tasten. Tijdens een demonstratie lieten ze vervalste bekentenissen horen die zogenaamd van bekende nieuwslezers afkomstig waren.
  • Doordat de technologie voor oplichting met AI steeds toegankelijker wordt, is het voor kwaadwillenden een koud kunstje om ermee aan de slag te gaan.
  • Naarmate AI-gegenereerde content steeds geavanceerder wordt, wordt het steeds lastiger om dit van echt te onderscheiden.

Naarmate AI-technologie zich steeds verder – en sneller – ontwikkelt, kunnen we steeds moeilijker onderscheid maken tussen authentieke en vervalste content. We gaan een toekomst tegemoet waarin het van levensbelang wordt om de echtheid van digitale communicatie te kunnen verifiëren. Tegelijkertijd moeten we ons afvragen wat voor effect dit heeft op ons vertrouwen, niet alleen in elkaar maar ook in instanties en de maatschappij, vooral als het gaat om authentieke hulpvragen of crises.

AI is niet meer weg te denken uit ons dagelijks leven, en dat is ook niet verwonderlijk. Steeds meer professionals stroomlijnen hun processen ermee, het helpt kunstenaars bij het ontdekken van allerlei nieuwe creatieve mogelijkheden, en ‘gewone mensen’ gebruiken het voor allerhande dagelijkse dingen. In relatief korte tijd heeft deze innovatieve technologie onze manier van werken, creëren en problemen oplossen volledig getransformeerd, waardoor mogelijkheden zijn ontstaan waarvan we een paar jaar geleden alleen maar konden dromen.

Maar er zit wel een flinke adder onder het gras. Want hoewel de meesten van ons AI gebruiken om productiever te werken of onze creativiteit te ontwikkelen, heeft niet iedereen zulke onschuldige bedoelingen. Net als elke andere krachtige technologie kunnen de mogelijkheden van AI ook voor verkeerde doeleinden worden ingezet, en daar zien we de gevolgen nu steeds vaker van.

De huidige geavanceerde deepfake-technologie is een duidelijk voorbeeld van hoe AI voor verkeerde doeleinden kan worden gebruikt. Want wat begon als een indrukwekkende demonstratie van wat je met AI allemaal kunt doen, wordt nu ingezet om mensen te misleiden en schade toe te brengen. En de gevolgen hiervan zijn enorm groot. Denk aan geavanceerde financiële oplichting, het beïnvloeden van verkiezingen, gerichte intimidatie en beeldmateriaal zonder toestemming veranderen in pornografische content. In dit artikel nemen we een aantal recente voorbeelden onder de loep, waaruit blijkt hoe serieus deze problemen aan het worden zijn.

Financieel medewerker maakt 25 miljoen dollar over na deepfake-truc

Een financieel medewerker maakte miljoenen dollars over aan oplichters na een videogesprek met wat senior executives leken te zijn, maar in werkelijkheid waren dit deepfakes.

De financiële fraude met AI in Hong Kong in januari 2024 is misschien wel de meest spraakmakende zaak tot nu toe. Toen werd een financieel medewerker van ingenieursbedrijf Arup misleid, waarna hij miljoenen dollars van het bedrijf naar de bankrekening van een oplichter overmaakte. Het begon allemaal vrij onschuldig. De medewerker kreeg een bericht dat leek te komen van de financieel directeur van het bedrijf, met het verzoek deel te nemen aan een vertrouwelijke videoconferentie om een aantal belangrijke transacties te bespreken.

Hij was in eerste instantie wel argwanend, maar toen hij de vertrouwde gezichten van het senior management team zag, was hij ervan overtuigd dat hij ook echt met de directieleden te maken had. Vervolgens voerde hij 15 afzonderlijke transacties uit, waarbij in totaal 25,6 miljoen dollar naar vijf verschillende lokale bankrekeningen werd overgeboekt. Pas toen hij wat later contact opnam met het hoofdkantoor van het bedrijf, realiseerde hij zich dat hij was opgelicht, waarna hij direct de politie inschakelde. Helaas was het toen al te laat – het geld was al verdwenen. De ‘mensen’ met wie hij tijdens het videogesprek zogenaamd contact had gehad waren allemaal door AI gegenereerde deepfakes.

AI medeplichtig in streamingfraude

Een muziekproducent zette AI in om valse streams te genereren voor zijn door AI gecomponeerde nummers. Hierdoor wist hij bij diverse streamingdiensten voor miljoenen aan onterechte royalty’s binnen te halen.

De opkomst van muziekstreamingplatforms heeft artiesten een fantastisch podium gegeven om hun werk met de wereld te delen. Daarnaast heeft generatieve AI het maken en produceren van muziek eenvoudiger gemaakt dan ooit. En in deze combinatie van factoren zag één slimme crimineel een zeer creatieve manier om het systeem om de tuin te leiden. De Amerikaanse muziekproducer gebruikte AI om zijn streamingcijfers kunstmatig op te krikken en incasseerde zo miljoenen dollars aan onterechte royalty’s – een primeur in de muziekwereld. De man is inmiddels aangeklaagd voor fraude en samenzwering.

Best indrukwekkend, overigens, hoe hij dit heeft aangepakt. Met hulp van een directeur van een AI-muziekbedrijf produceerde de man namelijk eerst honderdduizenden nummers die hij naar verschillende streamingplatforms uploadde. Vervolgens zette hij een leger van geautomatiseerde botaccounts in – op een gegeven moment waren dat er wel 10.000 – om zijn door AI gegenereerde nummers miljarden keren te streamen. Om geen argwaan te wekken, programmeerde hij de bots zo dat hun activiteit verspreid werd over zijn enorme catalogus van nepnummers, in plaats van dezelfde tracks steeds opnieuw af te spelen.

Om de nummers nog echter te laten lijken maakte hij voor elk nummer zelfs nepnamen – zowel voor de titel als de artiest. Het plan was zo goed doordacht dat het jarenlang onopgemerkt bleef en meer dan 10 miljoen dollar aan royalty’s opleverde voordat het allemaal aan het licht kwam. Maar nu moet hij de rekening betalen. Als hij wordt veroordeeld, kan de bedenker van dit digitale bedrog wel 20 jaar achter slot en grendel komen te zitten.

Man zet AI in voor wraak op zijn baas

Een sportdirecteur van een Amerikaanse middelbare school gebruikte AI om nepaudio-opnames te maken waarin de schooldirecteur beledigende uitspraken deed over leerlingen en andere leraren.

Er zijn ook mensen die AI gebruiken om wraak te nemen. Zo bedacht een sportdirecteur van een middelbare school in Maryland een kwaadaardig plan. Hij was gefrustreerd door eerdere conflicten met de schooldirecteur, die hem had aangesproken op financiële onregelmatigheden en ongeoorloofde ontslagen. Met behulp van AI-technologie maakte hij nepopnames waarin te horen was hoe de directeur zich discriminerend uitliet over leerlingen en collega’s. Deze vervalste fragmenten zette hij vervolgens op social media, met als doel om de directeur in een kwaad daglicht te zetten.

De impact was verpletterend. De school zette de directeur op non-actief om de beschuldigingen te onderzoeken, maar daar bleef het niet bij. De school werd ook overspoeld met dreigende berichten, en zelfs de familie van de directeur werd het doelwit van online pesterijen. Gelukkig bleek uit het politieonderzoek dat het hier inderdaad ging om door AI gegenereerde deepfakes. Alle bewijzen wezen direct naar de sportdirecteur, die werd gearresteerd. Vervolgens werd hij aangeklaagd voor stalking, diefstal, verstoring van de schoolactiviteiten en wraakneming op een getuige.

“Wat dit geval zo schrijnend maakt, is dat het hier gaat om een schooldirecteur uit Baltimore. Dit is niet Taylor Swift of Joe Biden of Elon Musk. Het is iemand die gewoon zijn werk probeert te doen,” zegt Hany Farid, professor aan de Universiteit van Californië in Berkeley en expert in digitale forensica, die de politie hielp bij het analyseren van de opname. “Het laat zien hoe kwetsbaar we zijn. Hoe iedereen dit soort dingen kan maken en als wapen kan gebruiken tegen wie dan ook.”

Beroemdheden slachtoffer van geraffineerde oplichting met AI

Een BBC-presentatrice werd slachtoffer van AI-fraude toen criminelen haar identiteit gebruikten om een reclamebureau op te lichten.

Ook beroemdheden worden steeds vaker doelwit van oplichting met AI-deepfakes. Neem het geval van BBC-wildlife-presentatrice Liz Bonnin bijvoorbeeld, die met verbijstering ontdekte dat haar gezicht was gebruikt in een reclameposter voor insectenspray – iets waar ze nooit toestemming voor had gegeven. Bij navraag bij Incognito, het bedrijf achter de reclame, vertelde directeur Howard Carter dat hij verschillende spraakberichten had ontvangen van iemand die zich voordeed als Bonnin. In deze berichten, die later door AI gegenereerd bleken te zijn, ging ‘Bonnin’ akkoord met de reclamecampagne.

De oplichter maakte slinks gebruik van het feit dat Carter Bonnin al kende. ‘Bonnin’ stelde voor om de deal rechtstreeks te regelen, buiten haar management om – als persoonlijke gunst. De misleiding was zo overtuigend dat Carter, die Bonnin al eens eerder had ontmoet en haar stem dacht te herkennen, zonder aarzeling het geld overmaakte.

En zo hebben er nog verschillende soortgelijke incidenten met celebrities plaatsgevonden. Neem bijvoorbeeld Jennifer Lopez. Zij werd slachtoffer toen zonder haar toestemming door AI bewerkte foto’s van haar gezicht werden gebruikt in reclames voor huidverzorgingsproducten. De oplichters hadden haar uiterlijk digitaal verouderd en rimpels toegevoegd om nepreclames te maken met voor-en-na foto’s van anti-aging producten – iets waar zij nooit mee in had gestemd.

Nieuwe oplichtingstruc: paniektelefoontjes met de stem van je kind

Een man in Los Angeles werd voor 25.000 dollar opgelicht toen hij gebeld werd door iemand die precies klonk als zijn zoon. Achteraf bleek dit een deepfake te zijn.

Sommige criminelen bedenken wel hele wrede trucs om mensen op te lichten. Ze spelen in op onze grootste angst: dat onze dierbaren in gevaar zijn. Dit gebeurde bijvoorbeeld in Los Angeles, waar een vader door zo’n geraffineerde manier van oplichting in een ware nachtmerrie terechtkwam. Het begon met een telefoontje dat van zijn zoon leek te komen – de stem klonk overtuigend echt omdat oplichters deze met AI perfect hadden nagemaakt. De ‘zoon’ vertelde in paniek dat hij een ongeluk had gehad en een zwangere vrouw had aangereden die nu in het ziekenhuis lag.

Daarna werd de vader nog een keer gebeld, dit keer zogenaamd door een advocaat. Die vertelde dat er een borgsom van 9.200 dollar nodig was om te voorkomen dat zijn zoon 45 dagen de cel in zou gaan. De oplichters regelden zelfs een Uber-chauffeur om het geld op te halen. Maar daar bleef het niet bij, want kort daarna belde weer een andere ‘advocaat’ met het afschuwelijke nieuws dat de zwangere vrouw was overleden en de borg was verhoogd naar 25.000 dollar.

In zijn wanhoop zorgde hij ervoor dat hij ook dít bedrag bij elkaar kreeg en gaf het mee aan een tweede Uber-chauffeur. Alles ging zo snel, en de situatie was zo urgent en emotioneel, dat de vader geen tijd had om een stapje terug te doen en zich af te vragen wat er eigenlijk echt aan de hand zou kunnen zijn. Na afloop, toen alles een beetje rustiger werd en de werkelijkheid tot hem doordrong, waren de oplichters en het geld helaas al spoorloos verdwenen.

Swatting-as-a-Service – een zorgwekkende trend

Het Telegram-kanaal Torswats gebruikt door AI gegenereerde stemmen om valse meldingen te doen bij hulpdiensten, waarna zwaarbewapende SWAT-teams voor niks uitrukken.

Van alle manieren waarop criminelen AI-technologie inzetten voor hun praktijken, is de opkomst van ‘Swatting-as-a-Service’ misschien wel het meest verontrustend. Een beruchte operatie, die via een Telegram-kanaal Torswats wordt gerund, heeft van deze gevaarlijke vorm van ‘pranking’ – waarbij een zwaarbewapend politieteam op een willekeurig adres wordt afgestuurd waar helemaal niets aan de hand is – een volwaardige ‘business’ gemaakt. Ze gebruiken AI om hun aanvallen geloofwaardiger te maken en moeilijker te traceren.

Swatting-as-a-Service maakt gebruik van door AI gegenereerde stemmen om valse meldingen te doen bij de politie – zoals bommeldingen, schietpartijen op middelbare scholen of andere gevaarlijke incidenten op bepaalde locaties. Hierdoor krijgen bewoners, instanties of scholen die zich nergens van bewust zijn, opeens zwaarbewapende politie-eenheden aan de deur. Het wordt nog verontrustender wanneer je de prijzen ziet. Voor maar 50 dollar kon iedereen ‘extreme swatting’ kopen – een incident waarbij slachtoffers in de handboeien werden geslagen terwijl gewapende agenten hun huis doorzochten. Voor het sluiten van scholen rekenden ze 75 dollar.

Torswats bood zelfs klantenkorting aan, met lagere prijzen voor vaste klanten en speciale tarieven voor prominente doelwitten als Twitch-streamers en celebrities. Alle betalingen verliepen via cryptovaluta, waardoor zowel de daders als hun klanten anoniem konden blijven.

Oplichters zetten AI in bij vastgoedfraude

Een Amerikaanse man heeft geprobeerd om met een deepfake-video illegaal een leegstaand pand in Florida in bezit te krijgen.

Vastgoed- of eigendomsfraude is niet nieuw, maar door AI kunnen criminelen steeds overtuigender vervalste eigendomsaktes en nepidentiteiten maken, waardoor je deze oplichtingspraktijken moeilijker kunt herkennen dan ooit. In september 2024 waarschuwde de FBI voor een zorgwekkende toename van eigendomsfraude, waarbij vaak geavanceerde AI-technologie wordt ingezet.

De fraude verloopt volgens een inmiddels bekend patroon: fraudeurs dienen vervalste eigendomsaktes in bij de gemeente om leegstaande panden te claimen. Zodra ze die papieren hebben, gaan ze snel te werk. Soms verkopen ze het pand direct door. In andere gevallen nemen ze een hypotheek op het pand, verhuren ze het aan nietsvermoedende huurders of herfinancieren ze de bestaande hypotheek.

Lauren Albrecht, directeur van Florida Title & Trust, het bedrijf dat verantwoordelijk is voor het controleren van de rechtmatigheid van vastgoedtransacties, beschrijft een opvallend voorbeeld van dit nieuwe type fraude waar ze pasgeleden mee te maken kreeg. Bij wat op het eerste gezicht een gewone verkoop van een leeg perceel leek, vielen verschillende dingen haar direct op. De eerste alarmbellen gingen bij haar af toen de vermeende eigenaar zich legitimeerde met een ID-bewijs uit West Virginia, terwijl zijn bankrekening op de Bahama’s stond. In lijn met de standaardprocedures van het bedrijf vroeg Albrecht vervolgens om een videogesprek om te verifiëren of de persoon in kwestie echt wel bestond.

Hoewel er tijdens het videogesprek wel iemand verscheen die op de foto van het ID-document leek, zag ze ook iets vreemds. Zo maakte de man bijvoorbeeld kleine, onnatuurlijke, repetitieve bewegingen. Uiteindelijk bleek het hier om een door AI gegenereerde deepfake te gaan, die waarschijnlijk gemaakt was met afbeeldingen van een vermiste personen-flyer uit Californië. Dit werd na een eenvoudige omgekeerde image search ontdekt.

Duitse journalisten slachtoffer van deepfake- audiofragmenten

Demonstranten in Duitsland spelen gefabriceerde audiofragmenten af met valse bekentenissen over opzettelijk misleidende nieuwsberichten door bekende nieuwspresentatoren.

Het gebruik van audio-deepfakes vormt ook een toenemende bedreiging voor de persvrijheid. In februari 2024 speelden demonstranten tijdens een van de reguliere Maandagdemonstraties in Dresden – protesten die een platform zijn geworden voor het uiten van onvrede over het regeringsbeleid – audiofragmenten af die leken op uitzendingen van het gerespecteerde Tagesschau-nieuwsprogramma. De audiofragmenten, waarbij ook de officiële jingle van het programma te horen was, bevatten schokkende bekentenissen van bekende nieuwspresentatoren over opzettelijke pogingen om het publiek te misleiden.

“We hebben al meer dan drie jaar schaamteloos tegen u gelogen,” verklaarde één stem. Een andere bood excuses aan voor “eenzijdige berichtgeving en bewuste manipulatie.” De stemmen, die leken op die van Tagesschau-presentatoren Susanne Daubner en Jens Riewa, bleken volledig door AI te zijn gegenereerd. Tagesschau veroordeelde de opnames direct als frauduleus, waarbij hoofdredacteur Marcus Bornheim wees op de bittere ironie: zij die de media regelmatig beschuldigen van ‘leugenpers’ verspreidden nu zelf doelbewust valse informatie.

Leerpunten

De voorbeelden uit dit artikel laten zien hoe criminelen AI-technologie gebruiken voor fraude, oplichting en afpersing die steeds overtuigender, winstgevender en mogelijk gevaarlijker worden. Extra zorgwekkend is dat het steeds makkelijker wordt om deze criminele praktijken uit te voeren. Want laten we eerlijk zijn: iedereen met een laptop en internet kan nu aan de tools komen om overtuigende deepfakes te maken – of dit nu om video- of audiomateriaal gaat.

De gevolgen van fraudeurs die AI gebruiken om eigendomsaktes te vervalsen, nepnieuws te maken, of iemand op te lichten of af te persen, zijn veel diepgaander dan je in eerste instantie denkt. Ze ondermijnen namelijk niet alleen het vertrouwen in de medemens maar ook in organisaties en de samenleving. Met elke geslaagde poging van oplichting, afpersing en fraude wordt het moeilijker om uit te gaan van wat we zien en horen, vooral als het komt van bronnen die we vroeger blindelings vertrouwden. Worden we door deze steeds geraffineerdere oplichtingspraktijken zo wantrouwig dat we straks niemand meer geloven – ook niet als iemand echt onze hulp nodig heeft?

Share via
Copy link