Het goede, het slechte en de toekomst van deepfakes

Foto van Richard van Hooijdonk
Richard van Hooijdonk
  • Wat zijn deepfakes ook weer precies? Een opfrisser
  • Hoe worden deepfakes gemaakt?
  • Het goede – een optimistische kijk
  • De gevaren van deepfakes
  • Wat kunnen we doen om nep van echt te onderscheiden?
  • De toekomst van fake – en andere overwegingen

Ondanks een enorme toename in het aantal positieve toepassingen blijven de gevaren van deepfakes wijdverbreide bezorgdheid oproepen naarmate ze steeds bekender worden en we ze beter begrijpen. We worden overspoeld door content die beschrijft hoe razendsnel deze deep learningtechnologie wordt ontwikkeld, dat deepfake-tech steeds geavanceerder wordt en gemakkelijker toegankelijk is en wat de risico’s zijn wanneer deze technologie in verkeerde handen valt. Of we het nu leuk vinden of niet, en hoe verontrustend de negatieve gevolgen van het gebruik van deepfakes ook mogen zijn, ze zijn deel van ons leven en zullen dat ook blijven. En ook al krijgen deepfakes vooral negatieve publiciteit, er zijn ook veel redenen om enthousiast te zijn over deze technologie en de vele positieve toepassingen ervan. Deepfaketechnologie maakt het bijvoorbeeld mogelijk om volledig nieuwe soorten content te creëren en democratiseren de toegang tot creatietools – die tot voor kort óf te duur óf te ingewikkeld waren voor de gemiddelde persoon. Het gebruik van kunstmatige intelligentie voor het creëren van realistische simulaties zou juist zelfs een positieve ontwikkeling kunnen zijn voor de mensheid.

Wat zijn deepfakes ook weer precies? Een opfrisser

Een alomvattende definitie geven van deepfakes is niet eenvoudig. De term deepfake combineert de woorden deep (van deep learning) en fake (nep). We weten dat deepfakes mogelijk worden gemaakt door deep learningtechnologie, een machine learningtechniek waarmee computers leren door voorbeelden te volgen. Deepfaketechnologie gebruikt iemands gedrag – zoals de stem, beeltenis en typische gezichtsuitdrukkingen of lichaamsbewegingen – om volledig nieuwe content te creëren die vrijwel niet van authentieke content te onderscheiden is. Deze technologie kan ook worden gebruikt om mensen in video’s dingen te laten zeggen of doen die ze nooit hebben gezegd of gedaan, of om iemand in een video te vervangen door een andere persoon, of om videocontent te creëren met belangrijke politieke figuren of beroemdheden of zelfs met personen die helemaal niet bestaan. De manipulatie van bestaande – of de creatie van nieuwe – digitale beelden is niet nieuw. Sterker nog, door AI gegenereerde pornografische content dook eind 2017 al voor het eerst op. Het creëren van dit soort videomateriaal duurde aanvankelijk minstens een jaar en werd door experts in hightech studio’s gedaan. Maar dankzij de snelle ontwikkeling van deepfaketechnologie in de afgelopen jaren kan dit nu een stuk sneller en eenvoudiger en zijn de resultaten vele malen overtuigender. De term deepfakes werd oorspronkelijk gebruikt voor specifieke pornografische content, maar nu wordt deze veel breder toegepast om een groot aantal verschillende soorten, door AI gegenereerde of synthetische videocontent te omschrijven.

Hoe worden deepfakes gemaakt?

Om een ​​realistische deepfakevideo van een bestaande persoon te maken, moet een neuraal netwerk met behulp van videobeelden van deze persoon worden getraind, waaronder een uitgebreid scala aan gezichtsuitdrukkingen, in allerlei verschillende soorten licht en vanuit elke denkbare hoek, zodat de kunstmatige intelligentie een diepgaand ‘begrip’ krijgt van niet alleen het uiterlijk maar ook de ‘essentie’ van de persoon in kwestie. Vervolgens wordt het getrainde netwerk gecombineerd met technieken als geavanceerde computer graphics om een verzonnen versie van deze persoon als het ware op de persoon in de oorspronkelijke video te plaatsen. Hoewel dit proces veel sneller gaat dan een paar jaar geleden, zijn echt geloofwaardige resultaten nog steeds behoorlijk tijdrovend en ingewikkeld. De allernieuwste technologie, zoals de Samsung AI-technologie die in een Russisch AI-lab is ontwikkeld, maakt het echter mogelijk om met slechts een handvol afbeeldingen – of zelfs maar één – een deepfakevideo te maken.

Hier volgen verschillende roemruchte deepfakes die onlangs de krantenkoppen haalden:

Deze nepvideo van Mark Zuckerberg, gemaakt door twee kunstenaars in samenwerking met reclamebureau Canny, verscheen op Instagram. In de deepfake houdt Zuckerberg een nogal sinistere toespraak over de macht van Facebook.

In een andere deepfakevideo noemt voormalig president Barack Obama president Donald Trump onder andere een “total and complete dipshit”. Halverwege de video wordt echter duidelijk dat Obama dit nooit heeft gezegd, maar dat deze woorden afkomstig waren van schrijver en ‘Get Out’-regisseur Jordan Peele.

En verreweg de meest realistische deepfakes die op dit moment de ronde doen zijn deze zeer recente die op TikTok verschenen – ‘Tom Cruise’ die golf speelt en zijn inmiddels bekende en nogal bizarre ‘grappige’ gedrag laat zien.

Het goede – een optimistische kijk

Hoewel de niet-zo-koosjere toepassingen van deepfakes behoorlijk beangstigend zijn, biedt deze technologie ook veel voordelen en vinden we regelmatig nieuwe, positieve toepassingen voor deepfaketech. Denk bijvoorbeeld aan het bewerken van videobeelden zonder dat je daar reshoots voor hoeft te doen, of het ‘tot leven wekken’ van kunstenaars die niet langer onder ons zijn. Onderzoekers van het Samsung AI-lab in Moskou zijn er pasgeleden bijvoorbeeld in geslaagd om de Mona Lisa van Da Vinci om te zetten in video. Door middel van deep learningtechnologie kregen ze het voor elkaar om deze beroemde dame haar hoofd, mond en ogen te laten bewegen. Deepfaketechnologie werd ook gebruikt in het Dalí-museum in Florida om een ​​levensgrote deepfake van de surrealistische kunstenaar Salvador Dalí te tonen die verschillende citaten ten gehore bracht die hij tijdens zijn kunstcarrière heeft geschreven of gesproken. Met deepfaketechnologie kunnen we dingen ervaren die nooit hebben bestaan, of allerlei toekomstige mogelijkheden voor ons zien. Afgezien van de vele verschillende mogelijke toepassingen in kunst en entertainment kun je met deze technologie ook allerlei indrukwekkende dingen in het onderwijs en de gezondheidszorg doen. Hieronder volgen nog een aantal interessante voorbeelden van deze baanbrekende technologie.

Spraakmanipulator zet tekst om in spraak

Met de VoCo-software van Adobe – die zich nog in de onderzoeks- en prototypefase bevindt – kun je tekst omzetten in spraak en deze bovendien bewerken, net zoals je dat met afbeeldingen in Photoshop zou doen. Stel dat je een filmfragment van commentaar wilt voorzien door bijvoorbeeld David Attenborough of Morgan Freeman. Met VoCo is dit nu mogelijk zonder dat je een fortuin hoeft uit te geven aan het inhuren van de echte stemacteurs. Met de software kun je een bestaande audio-opname van een persoon wijzigen door woorden en zinnen toe te voegen, zonder dat de oorspronkelijke verteller deze ooit heeft gezegd. Tijdens een live demo in San Diego veranderde een ​​Adobe-medewerker een gedigitaliseerde opname van een man die oorspronkelijk “Ik kuste mijn honden en mijn vrouw” had gezegd in “Ik kuste Jordan drie keer”. Om tot dit resultaat te komen werd gebruikgemaakt van een spraakopname van 20 minuten. De getranscribeerde versie van deze opname werd vervolgens gewijzigd en met een druk op de knop in de nieuwe spraakclip omgezet. Hoe indrukwekkend deze technologie ook moge zijn, dit soort ontwikkelingen kunnen de nu al problematische situatie op het gebied van nepnieuws verder verergeren en het publieke vertrouwen in de journalistiek nog verder ondermijnen. Adobe heeft echter bekendgemaakt dat het actie onderneemt om deze potentiële uitdagingen aan te pakken.

Overtuigende nasynchronisatie door geautomatiseerde gezichtsheranimatie

Synthesia, een AI-softwarebedrijf dat is opgericht door een team van onderzoekers en ondernemers van Stanford, Cambridge, University College London en de Technische Universiteit van München, introduceert een nieuw soort media – software voor gezichtsheranimatie – die geautomatiseerde en zeer overtuigende nasynchronisatie mogelijk maakt. De AI-startup werd op de kaart gezet met de introductie van een synthetische video waarin David Beckham in negen verschillende talen vertelt over de dodelijke ziekte Malaria. Deze technologie kan op verschillende manieren worden gebruikt en biedt videomakers overal ter wereld enorm veel extra mogelijkheden. Synthesia en de internationale nieuwsdienst Reuters hebben onlangs samengewerkt om ’s werelds eerste gesynthetiseerde, door nieuwslezers gesproken nieuwsuitzendingen te creëren. Hiervoor gebruikten ze basic deepfaketechnologie, waarmee ze op basis van vooraf opgenomen clips van een nieuwslezer nieuwe nieuwsuitzendingen maakten. Verreweg het meest opmerkelijke is dat deze technologie het mogelijk maakt automatisch nieuwsberichten te genereren die bovendien voor individuele kijkers gepersonaliseerd kunnen worden. De technologie van Synthesia kan voor trainingsdoeleinden worden gebruikt om videomodules in meer dan 40 talen te ontwikkelen en content makkelijk en snel te creëren of wijzigen. Met deze technologie kun je ook tekst en slides binnen enkele minuten in videopresentaties omzetten, zonder dat je daar videobewerkingsvaardigheden voor nodig hebt. Dit is onder andere handig voor doeleinden als bedrijfscommunicatie.

Met deepfakes kan iedereen dansen als een pro

Tinghui Zhou, CEO en medeoprichter van Humen AI, een startup die dans-deepfakes maakt, heeft samen met zijn onderzoekscollega’s bij UC Berkeley technologie ontwikkeld waarmee je iedereen als een professional kunt laten dansen. Denk bijvoorbeeld aan de indrukwekkende dance moves van Bruno Mars. Hiervoor gebruikten de heren een type kunstmatige intelligentie met de naam GANs (generative adversarial networks), waarmee je iemands danspassen kunt ‘lezen’, kopiëren en op een target-lichaam kunt ‘plakken’. Het systeem kan worden gebruikt voor alle soorten dansstijlen – zoals ballet, jazz, modern of hiphop. Eerst worden video’s van de source-danser en de target-danser opgenomen. Vervolgens worden de beelden van de dansers veranderd in stokfiguren. Daarna vindt de omwisseling plaats door middel van een neurale netwerksynthesevideo van de target-danser die gebaseerd is op de stokfiguurbewegingen van de source-danser – en voilà! Het enige dat je hiervoor nodig hebt zijn een aantal videobeelden en de juiste AI-software. Het is indrukwekkend werk en traditioneel zou je voor dit soort videomanipulatie met een heel team een ​​aantal dagen zoet zijn. Humen AI wil van de dansvideogimmick een app maken en uiteindelijk een betaalde dienst ontwikkelen voor reclamebureaus, videogame-ontwikkelaars en zelfs Hollywoodstudio’s. Ricky Wong, medeoprichter van Humen AI, zegt: “Met drie minuten bewegingsbeelden en materiaal van professionals kun je iedereen laten dansen. We proberen vreugde en plezier te brengen in het leven van mensen”. Zhou voegt daaraan toe: “De toekomst die we ons voorstellen is er een waarin iedereen content op Hollywoodniveau kan creëren”.

Slimme assistenten en virtuele mensen

Slimme assistenten als Siri, Alexa en Cortana bestaan ​​al een tijdje en zijn de afgelopen jaren aanzienlijk verbeterd. Ze doen echter nog steeds enigszins aan als een nieuwe gebruikersinterface die je exacte instructies moet geven, in plaats van een virtueel wezen waarmee je op een natuurlijke manier kunt communiceren. En een van de belangrijkste stappen om geloofwaardige virtuele ‘menselijke’ assistenten te creëren waarmee we kunnen communiceren, is het vermogen om gezichtsuitdrukkingen, lichaamshouding, gebaren en stemmen na te bootsen. Deze zogenaamde virtuele personen worden langzaam maar zeker mainstream – denk bijvoorbeeld aan digitale influencers – en hiermee communiceren we net zoals we met echte mensen doen. En hoewel digitale influencers niet echt in hun eigen woorden op je reageren, omdat hun content door verhalenvertellers wordt gecreëerd, luiden ze een toekomst in van ‘natuurlijke’ interactie met echte virtuele wezens. Met deepfaketechnologie die is getraind met talloze voorbeelden van menselijk gedrag, zouden we slimme assistenten het vermogen kunnen geven om kwalitatief hoogwaardige gesprekken te voeren en te begrijpen. En dankzij dezelfde technologie kunnen zelfs digitale influencers het vermogen ontwikkelen om visueel – in real time – op geloofwaardige manieren te reageren. Welkom in de toekomst van virtuele mensen.

Deep generative modellen bieden nieuwe mogelijkheden in de zorg

Deepfaketechnologie kan ook veel voordelen bieden in andere sectoren, zoals bijvoorbeeld de gezondheidszorg. De tech kan worden gebruikt voor het synthetiseren van realistische data om onderzoekers te helpen nieuwe behandelmethoden voor ziekten te ontwikkelen, zodat ze niet meer afhankelijk zijn van patiëntgegevens. Werk op dit gebied is al uitgevoerd door een team van onderzoekers van de Mayo Clinic, het MGH & BWH Centre for Clinical Data Science en NVIDIA, die hebben samengewerkt aan het gebruik van GAN’s (generative adversarial networks) om synthetische hersen-MRI-scans te ontwikkelen. Het team trainde zijn GAN met gegevens van twee hersen-MRI-datasets: de ene bevatte ongeveer tweehonderd MRI’s met tumoren en de andere duizenden MRI’s met tekenen van Alzheimer. Volgens de onderzoekers werden algoritmen die waren getraind met een combinatie van ‘nep’ medische beelden en 10 procent echte beelden net zo bedreven in het ontdekken van tumoren als algoritmen die alleen met echte beelden waren getraind. In hun paper stellen de onderzoekers: “Datadiversiteit is van cruciaal belang voor succes bij het trainen van deep learningmodellen. Datasets voor medische beeldvorming zijn vaak onevenwichtig omdat pathologische bevindingen over het algemeen zeldzaam zijn, wat bij het trainen van deep learning-modellen nogal wat uitdagingen met zich meebrengt. We stellen een methode voor om synthetische MRI-beelden met hersentumoren te genereren door een GAN te trainen. Dit biedt een automatiseerbare, goedkope bron van diverse gegevens die kunnen worden gebruikt als aanvulling op de trainingsset.” Omdat de afbeeldingen synthetisch worden gegenereerd, heb je niet langer te maken met uitdagingen rond privacy of patiëntgegevens. De gegenereerde data kan eenvoudig met verschillende medische instellingen worden gedeeld, waardoor een eindeloze verscheidenheid aan combinaties ontstaat die kunnen worden gebruikt om het werk te verbeteren en te versnellen. Het team hoopt dat het model wetenschappers zal helpen nieuwe gegevens te genereren die gebruikt kunnen worden om afwijkingen sneller en nauwkeuriger op te sporen.

De gevaren van deepfakes

Hoe opwindend en veelbelovend deepfake-technologie ook moge zijn, deze ontwikkelingen leiden ook tot verschillende serieuze uitdagingen. De belangrijkste daarvan is het verspreiden van pornografisch materiaal waarin personen voorkomen die daar geen toestemming voor hebben gegeven. En volgens een DeepTrace-rapport bestaat maar liefst 96 procent van de deepfakes die momenteel online worden gevonden uit dit soort materiaal. Er zijn inmiddels ook diverse meldingen binnengekomen van deepfake-audio die wordt gebruikt voor identiteitsfraude en afpersing. Het gebruik van deepfakes vormt potentieel een enorm veiligheids- en politiek destabilisatierisico, aangezien de technologie kan worden gebruikt om nepnieuws te verspreiden en leiden tot een toename van cybercriminaliteit, wraakporno, intimidatie, misbruik en (nep)schandalen. Er is ook een goede kans dat videobeelden en audiobestanden binnenkort niet meer mogen worden gebruikt als bewijsmateriaal in rechtszaken, aangezien ze haast niet meer van echt te onderscheiden zijn. Volgens Brookings Institution omvatten de sociale en politieke gevaren van deepfakes onder meer “het verstoren van het democratisch discours; het manipuleren van verkiezingen; verminderd vertrouwen in instellingen; afnemende journalistieke kwaliteit; verergering van sociale verdeeldheid; ondermijning van de openbare veiligheid; en het toebrengen van moeilijk te herstellen schade aan de reputatie van prominente personen”. Deepfakes kunnen bovendien ernstige financiële problemen veroorzaken. Enkele voorbeelden zijn een Brits energiebedrijf dat werd misleid tot het doen van een frauduleuze overboeking van $243 miljoen en een audio-deepfake die werd gebruikt om een ​​Amerikaanse CEO voor $10 miljoen op te lichten. En hier volgen nog een aantal belangrijke voorbeelden van de gevaren van deepfakes.

Nieuwjaarsvideo-toespraak leidt tot poging tot militaire staatsgreep

Het feit dat er steeds meer – en steeds geavanceerdere – deepfakes op het internet circuleren kan ertoe leiden dat elke video die enigszins vreemd lijkt chaos kan veroorzaken. Een voorbeeld is de nieuwjaarsvideo-toespraak van Gabon’s president Ali Bongo in 2019. De president was al een aantal maanden niet in het openbaar gezien en het gebrek aan antwoorden van de regering leidde tot meer en meer speculaties en twijfel. De video veroorzaakte vervolgens bij zowel bij de mensen in Gabon als internationale waarnemers steeds meer achterdocht over het welzijn van de president. Hoewel het doel van de video was om speculaties over de slechte gezondheid van de president de wereld uit te helpen mislukte dit plan omdat Bongo’s tegenstanders niet overtuigd waren van de authenticiteit van de video. De oppositie meende dat dat er iets vreemds was aan de motoriek van de president in de videobeelden. Een week na de release van de video riep het leger van Gabon op tot een staatsgreep, die uiteindelijk mislukte. Hany Farid, een professor in de computerwetenschappen die gespecialiseerd is in digitale forensische wetenschap, vertelde: “Ik heb net verschillende andere video’s van president Bongo bekeken en ze lijken niet op de spraakpatronen in deze video, en zelfs zijn uiterlijk ziet er niet hetzelfde uit”. Farid voegde eraan toe dat hij geen definitieve beoordeling kon geven maar dat hij wel vond dat er “iets niet klopte”. De gevaren en de chaos die deepfakes op politiek gebied kunnen veroorzaken hebben ertoe geleid dat de VS en China bezig zijn met nieuwe wetgeving en dat DARPA, het Defense Advanced Research Projects Agency – een instituut van het Amerikaanse ministerie van defensie – investeert in technologie om nepcontent op te sporen.

Deepfakes als chantagemateriaal voor cheerleaders

Een vrouw uit de Amerikaanse staat Pennsylvania is onlangs gearresteerd voor het creëren van deepfakes van minderjarige cheerleaders. De slachtoffers waren rivalen van haar dochter voor het lokale cheerleaderteam. Met de nepbeelden probeerde de 50-jarige moeder de meisjes in een kwaad daglicht te zetten. Met behulp van foto’s en filmpjes die de tieners op social media hadden gedeeld creëerde de vrouw nepfoto’s en -video’s, waarin het leek alsof de meisjes naakt alcohol dronken en drugs gebruikten. De vrouw stuurde deze deepfakes vervolgens naar de coaches om de tieners gediskwalificeerd te krijgen. Het nepmateriaal werd ook naar de meisjes zelf verzonden met een bericht waarin de vrouw hen aanspoorde zelfmoord te plegen. Volgens de Amerikaanse media zou de dochter zelf niet van de acties van haar moeder hebben geweten. De moeder wordt aangeklaagd voor cybermisbruik en aanverwante misdrijven. Met betrekking tot het eerste slachtoffer vertelt Matt Weintraub, DA van Bucks County: “De verdachte heeft een echte foto met een of andere photoshop-app bewerkt om het te laten lijken alsof dit tienermeisje geen kleren aan had. Maar het was een schermafbeelding van social media waarin de tiener zwemkleding droeg”.

Deepfake-bots op Telegram creëren naaktfoto’s van vrouwen en kinderen

Vorig jaar werden op verzoek van Telegram-gebruikers meer dan 100.000 nep-naaktfoto’s gegenereerd door een ecosysteem van bots. De basis van dit ecosysteem is een door AI aangedreven bot waarmee gebruikers de kleding van afbeeldingen van vrouwen kunnen ‘strippen’, zodat ze naakt lijken. Volgens een rapport van het visual threat intelligence-bedrijf Sensity “leken de meeste originele afbeeldingen afkomstig te zijn van social mediapagina’s of rechtstreeks uit privécommunicatie, waarvan de individuen in kwestie waarschijnlijk niet wisten dat ze een doelwit waren. Hoewel het in dit geval grotendeels particulieren betrof, hebben we ook een aanzienlijk aantal social media-influencers, gamestreamers en beroemdheden in de entertainmentindustrie geïdentificeerd. Bij een beperkt aantal afbeeldingen leek het bovendien om minderjarige personen te gaan, wat suggereert dat sommigen de bot voornamelijk gebruikten om pedofiele content te genereren en verspreiden”. De deepfakes zijn op verschillende social mediaplatforms gedeeld met public shaming, wraak of afpersing als doel. De meeste deepfakebots maken gebruik van DeepNude-technologie, maar we zien steeds meer vergelijkbare apps opduiken op het internet. Het enige dat je hoeft te doen is een foto uploaden en vervolgens krijg je binnen enkele minuten een gemanipuleerde afbeelding terug. Omdat Telegram gebruikmaakt van versleutelde berichten, kunnen gebruikers helaas heel makkelijk anonieme accounts creëren die je vrijwel onmogelijk kunt traceren. En hoewel versleutelingstechnologie bedoeld is om de privacy van gebruikers te beschermen en surveillance te omzeilen is het niet moeilijk om te zien hoe je deze features ook voor duistere doeleinden kunt gebruiken.

Wat kunnen we doen om nep van echt te onderscheiden?

Zoals het er nu uitziet, is het aantal deepfakevideo’s dat online circuleert met een verbazingwekkend geschat jaarlijks percentage van 900 procent gestegen. Aangezien de technologische vooruitgang het steeds eenvoudiger heeft gemaakt om deepfakecontent te produceren vragen ook steeds meer experts zich af hoe we het kwaadwillige gebruik van deze technologie aan banden kunnen leggen. Een van de manieren om dit te doen – net als in het geval van cybercriminaliteit en phishing – is om het publiek bewust te maken en mensen voor te lichten over de gevaren van deepfakes. Veel bedrijven hebben inmiddels technologieën gelanceerd om nepcontent te herkennen, de verspreiding ervan te voorkomen of authentieke content door middel van blockchain of watermerken te verifiëren. De keerzijde is echter dat deze detectie- en authenticatiemethoden ook door diezelfde kwaadwillende actoren kunnen worden gebruikt om nog overtuigender deepfakes te creëren. Hier volgen enkele voorbeelden van technologieën die zijn ontwikkeld om het misbruik van deepfakes tegen te gaan.

Deepfakebeleid van social mediaplatforms

Sociale netwerken spelen de belangrijkste rol in het voorkomen dat deepfakes voor kwaadwillende doeleinden worden gebruikt. Deepfakes worden door social mediaplatforms momenteel net zo gezien als andere content die misleidend is of ertoe kan leiden dat mensen gedupeerd of anderszins benadeeld worden. Het beleid van Instagram en Facebook is bijvoorbeeld om ‘gemanipuleerde media’ te verwijderen, met uitzondering van parodieën. YouTube verbiedt gemanipuleerde content die misleidend is of ernstige risico’s kan opleveren, en TikTok verwijdert ‘digitale vervalsingen’ – waaronder onjuiste gezondheidsinformatie – die misleidend zijn en schade kunnen veroorzaken. Reddit verwijdert content die personen of entiteiten op een misleidende of bedrieglijke manier nabootsen, maar maakt voor satire en parodie een uitzondering. Nu het aantal en de kwaliteit van deepfakes steeds meer toenemen, is het echter onduidelijk hoe sociale netwerken dit beleid in de toekomst zullen kunnen blijven handhaven. Een ding dat ze zouden kunnen doen is deepfakes automatisch labelen, ongeacht of deze schadelijk zijn, zodat er in ieder geval meer bewustzijn gecreëerd wordt.

Superrealistische deepfake-afbeeldingen spotten

Onderzoekers van de University of Buffalo hebben een ingenieuze nieuwe tool ontwikkeld waarmee ze superrealistische deepfakes kunnen spotten. In hun paper vertellen de onderzoekers over de methode die ze hebben ontwikkeld om authentieke beelden te onderscheiden van beelden die door deepfaketechnologie zijn gegenereerd. Dit doen ze door de ogen van de persoon in de afbeelding goed te bestuderen. Wat de onderzoekers ontdekten is dat de reflecties in beide ogen van de persoon op een authentieke foto als gevolg van dezelfde lichtomstandigheden meestal identiek zijn. Bij gemanipuleerde afbeeldingen is dit is echter meestal niet het geval. De tool is er tot dusver in geslaagd om door deepfaketechnologie gegenereerde afbeeldingen in 94 procent van de gevallen te herkennen. De tool is overigens het nauwkeurigst bij foto’s die met de portretinstelling zijn gemaakt, wat bij close-up portretfoto’s veelal het geval is.

Echte aanwezigheidsgarantie

In de strijd tegen het misbruik van deepfakes is het van kritiek belang dat je kunt verifiëren dat de persoon die je online voor je denkt te hebben ook daadwerkelijk echt is – en dit kan met iProov Genuine Presence Assurance. Het systeem van iProov maakt gebruik van biometrische scans die kunnen identificeren of de persoon in kwestie inderdaad een levend mens is en niet een foto, video, masker, deepfake of andere methode om een (biometrisch) beveiligingssysteem te omzeilen. Het systeem werkt op mobiele apparaten, computers of in onbeheerde kiosken en wordt gebruikt door organisaties overal ter wereld, zoals de National Health Service (NHS) in Groot-Brittannië. De NHS heeft voor de biometrische gezichtsauthenticatie van iProov gekozen om de onboarding-ervaring van gebruikers te verbeteren. Dankzij iProov’s Flashmark gezichtsverificatietechnologie kunnen gebruikers op afstand veilig inloggen op de NHS-app om afspraken te maken, toegang te krijgen tot medische dossiers en herhaalrecepten aan te vragen. Het proces bestaat uit het indienen van een ID-foto en het positioneren van het gezicht op het scherm. Na een korte reeks knipperende kleuren wordt de identiteit van de gebruiker geverifieerd en kan hij of zij van de NHS-app gebruikmaken.

Antivirus voor deepfakes

Sensity, een in Amsterdam gevestigd bedrijf dat deep learningtechnologieën ontwikkelt voor het monitoren en detecteren van deepfakes, heeft een platform voor visuele dreigingsinformatie ontwikkeld dat dezelfde deep learningprocessen toepast als die worden gebruikt bij het creëren van deepfakes. Het systeem combineert deepfakedetectie met geavanceerde videoforensische analyse en monitoringsmogelijkheden. Het platform is een soort antivirusprogramma voor deepfakes en monitort meer dan 500 bronnen op het open en dark web waar de kans op het vinden van kwaadaardige deepfakes groot is. Het waarschuwt gebruikers wanneer ze iets bekijken dat mogelijk door AI gegenereerde synthetische content is en levert gedetailleerde beoordelingen en dreigingsanalyses. Als je URL’s of je eigen foto- en videobestanden uploadt analyseert Sensity deze om de nieuwste, op AI gebaseerde mediamanipulatie- en synthesetechnieken te detecteren, waaronder valse menselijke gezichten in social mediaprofielen, datingapps of online accounts voor financiële diensten. Sensity biedt ook toegang tot ’s werelds meest uitgebreide deepfakedatabase en andere visuele media die zich richten op publieke figuren, inclusief inzichten met betrekking tot de sectoren en landen die het meest door deze technologie getroffen worden.

De toekomst van fake – en andere overwegingen

De doos van Pandora is geopend en het lijkt erop dat de race tussen het creëren van deepfakes en het detecteren en voorkomen ervan in de toekomst steeds heviger zal worden. Deepfaketechnologie wordt steeds toegankelijker en het wordt voor ‘de doorsnee persoon’ steeds eenvoudiger om zelf deepfakes te creëren. Daarnaast wordt het ook steeds moeilijker om deepfakecontent van authentieke content te onderscheiden. Deepfakes zullen blijven evolueren en zich verder verspreiden. En uitdagingen als het gebrek aan details in de synthese zullen ongetwijfeld op korte termijn worden overwonnen. Verder is de verwachting dat verbeteringen in de neurale netwerkstructuren en vooruitgang in hardware ervoor zorgen dat trainings- en oplevertijd aanzienlijk korter zullen worden. Er zijn al nieuwe algoritmes die steeds realistischer – en bijna real-time – outputs kunnen genereren. Volgens experts zullen GAN’s in de toekomst de belangrijkste basis zijn voor de ontwikkeling van deepfakes die bijna niet van authentieke content te onderscheiden zijn.

En hoewel het gebruik van deepfakes voor goede doeleinden snel toeneemt in sectoren als entertainment, nieuws en het onderwijs, zullen deze ontwikkelingen tegelijkertijd tot nog ernstigere bedreigingen leiden. Denk daarbij aan toenemende criminaliteit, de verspreiding van nepinformatie, synthetische identiteitsfraude, verkiezingsmanipulatie en politieke spanningen. Een ander aspect om te overwegen is dat deepfakes bovendien een zeer nadelige invloed hebben op onze keuzevrijheid en identiteit. Met gebruik van een foto kun je iemand in feite allerlei dingen laten doen – die in werkelijkheid helemaal nooit hebben plaatsgevonden – zonder dat iemand daar toestemming voor heeft gegeven of er zelfs maar iets vanaf weet. En zodra een gemanipuleerde foto of video eenmaal online staat verlies je alle controle over hoe deze content wordt gebruikt of geïnterpreteerd.

Het is duidelijk dat het verkeerde, misleidende gebruik van deepfaketechnologie aan banden gelegd moet worden en techexperts, journalisten en beleidsmakers zullen hierin een cruciale rol spelen. Zij zijn de aangewezen personen om het publiek goed over de mogelijkheden en de gevaren van synthetische media als deepfakes te informeren. En als wij onszelf aanleren om alleen content uit degelijke, geverifieerde bronnen te vertrouwen ontdekken we wellicht dat het goede gebruik van deepfakes toch opweegt tegen het slechte. Met een groter publiek bewustzijn kunnen we de negatieve impact van deepfakes beperken, manieren vinden om ermee om te leren gaan en in de toekomst zelfs inzien dat we ook van de mogelijkheden van deepfaketechnologie kunnen profiteren.

Share via
Copy link