De opmars van nepaudio en -video: is het einde van de werkelijkheid in zicht?

Industries: Algemeen
  • Met stemimitatie-tech en nepvideo’s leid je niet alleen mensen maar ook biometrische authenticatiesystemen om de tuin
  • Nepnieuws is net zo oud als echt nieuws – maar dit keer is het anders
  • Door videofaking krijgt ons vertrouwen – op elke denkbare manier – een behoorlijke knauw
  • In de toekomst is er video-‘bewijs’ van wat je maar wilt (dat anderen) geloven
  • Hoe kunnen we nep straks nog van echt onderscheiden?

We raken steeds meer gewend aan het zien en zelfs delen van gemanipuleerde content. Denk bijvoorbeeld aan gefotoshopte supermodellen of virtual- en augmented reality filters in social media apps zoals Snapchat. De gedokterde content die we dagelijks consumeren ziet er steeds realistischer uit, zo realistisch zelfs dat we er steeds meer moeite mee hebben om het verschil te zien tussen nep- en authentieke content. En alsof dit niet erg genoeg is, komen er steeds meer nieuwe technologieën beschikbaar – gedreven door hightech grafische softwaretools en geavanceerde kunstmatige intelligentie – waarmee je hyperrealistisch audio- en beeldmateriaal kunt creëren. Zo kun je (prominente) personen bijvoorbeeld alles laten zeggen en doen wat je maar wilt. Het wordt in de toekomst dan ook een steeds grotere uitdaging om nep van echt te onderscheiden.

Met stemimitatie-tech en nepvideo’s leid je niet alleen mensen maar ook biometrische authenticatiesystemen om de tuin

Een team onderzoekers van de University of Alabama at Birmingham is bezig met de ontwikkeling van stemimitatie-technologie. Met minder dan 5 minuten stemgeluid – of dat nu een live sample is of eentje van YouTube – kan een gesynthetiseerde ‘kopie’ worden gemaakt die zo authentiek klinkt dat je er zowel biometrische authenticatiesystemen als mensen mee om de tuin kunt leiden. Deze technologie kan bijvoorbeeld gebruikt worden om tekstboeken om te zetten in audioversies met de stemmen van beroemde mensen. Dat zijn nog relatief onschuldige toepassingen maar stel je voor dat je deze tech combineert met face-morphing – dan open je een Doos van Pandora van niet-zo-koosjere mogelijkheden. Prominente figuren die bijvoorbeeld valse verklaringen afleggen. Een goed voorbeeld van wat nu al mogelijk is, is het Synthesizing Obama Project van de University of Washington. Tijdens dit onderzoek werd de audio van een van Obama’s toespraken gebruikt in een totaal andere video van de voormalige Amerikaanse president. Ze kregen dit voor elkaar door een neuraal netwerk met vele uren aan beeldmateriaal te trainen.

In deze YouTube video krijg je een goed beeld van deze technologie:

Onderzoekers aan Stanford University, onder leiding van Dr. Matthias Niessner, hebben onlangs de Face2Face software ontwikkeld, waarmee video zo kan worden gemanipuleerd dat een tweede persoon de spreker in de video allerlei dingen kan laten zeggen. Het is in wezen een meer verfijnde versie van SnapChat’s face-swap. Met een webcam legt het onderzoeksteam de gezichtsuitdrukkingen van de tweede persoon vast, waarna de beelden als het ware – in real time – over het gezicht van de persoon in de video worden gelegd. De technologie werd gedemonstreerd met video’s van Vladimir Poetin en Donald Trump. Een andere, live demonstratie van het resultaat werd uitgezonden tijdens een Amerikaanse talkshow.

Nepnieuws is net zo oud als echt nieuws – maar dit keer is het anders

Pablo Boczkowski, een professor aan de School of Communication van Northwestern University, vertelt het mediabedrijf Seeker dat “Nepnieuws net zo oud is als echt nieuws. Er is altijd nep-informatie geweest. Maar we hebben nu te maken met een informatie-infrastructuur die heel anders is, met een omvang en een draagwijdte die we nog niet eerder hebben gezien”. We hebben video- en geluidsopnamen altijd al tot op zekere hoogte kunnen manipuleren en deze worden ook al tientallen jaren gebruikt om mensen te misleiden. Sinds de Eerste Wereldoorlog is er al filmpropaganda. Maar in die tijd was het proces duur en tijdrovend. Bovendien was het lang niet zo lastig om het verschil te zien tussen authentieke beelden van mensen en acteurs en animaties.

Een screenshot van CNN Live waar een man een een vrouw over nepnieuws praten
We hebben video- en geluidsopnamen altijd al tot op zekere hoogte kunnen manipuleren en deze worden ook al tientallen jaren gebruikt om mensen te misleiden.

Maar met de huidige technologie kunnen gefabriceerde of overleden acteurs in dezelfde film spelen als springlevende filmsterren. En je kunt ze letterlijk alles laten zeggen of doen. Tot voor kort had je voor dit soort ‘magie’ nog geavanceerde en kostbare computers nodig. Maar dat is allang niet meer het geval. Sommige van deze audio- en videomanipulatieprogramma’s, gemaakt met machine learning algoritmes, kun je zelfs gratis downloaden – zolang je maar weet waar je naar moet zoeken. Met een eenvoudige home computer en open-sourcecode kan iedereen met een beetje kennis van deep learning algoritmen en een beetje fantasie een zeer overtuigende video maken waarin je een willekeurig gezicht op het lichaam van iemand anders kunt morphen.

Door videofaking krijgt ons vertrouwen – op elke denkbare manier – een behoorlijke knauw

Het feit dat deze relatief eenvoudige en goedkope technieken zo makkelijk te verkrijgen zijn betekent niet alleen dat ieders reputatie en integriteit potentieel op het spel staan. Het betekent ook dat ons vertrouwen – op elke denkbare manier – een behoorlijke knauw krijgt. Face-swapping wordt bijvoorbeeld gebruikt in pornofilms – denk aan pornoacteurs waarvan het gezicht vervangen wordt door dat van een popster, beroemde acteur of politicus. Deze technologie kan zelfs worden gebruikt om (raciale) verdeling te zaaien of voor misdaden als sextortion of afpersing. En ook al is deze vorm van morphing-technologie nog lang niet perfect, uiteindelijk zijn we in staat om iemands stem of verschijning op een dusdanig overtuigende manier na te bootsen dat het vrijwel onmogelijk is om het verschil nog te kunnen horen of zien. Gedeeld op sociale media kunnen dergelijke beelden binnen no time viral worden, met alle mogelijke desastreuze gevolgen van dien. Nu al delen we massaal nepartikelen of -foto’s – er vanuit gaande dat het authentieke content is – zonder er ook maar een seconde over na te denken. Je kunt je voorstellen wat de mogelijke gevolgen kunnen zijn van het achteloos delen van deze nieuwe nepvideobeelden.

In de toekomst is er video-‘bewijs’ van wat je maar wilt (dat anderen) geloven

Er is al een overvloed aan nieuwsberichten, blogs en artikelen die ondersteunen wat wij (willen dat anderen) geloven – welke zienswijzen of vooroordelen we ook hebben. In de toekomst is er ook video’bewijs’ voor wat je ook maar bevestigd wilt hebben. Of het nu Trump is die de vele aantijgingen tegen hem bevestigt, beelden van een politicus die betrokken is bij een wandaad, de paus die met een popster aan het rotzooien is of een zakenman die zich schuldig maakt aan frauduleuze praktijken. Dit soort beelden zullen steeds moeilijker te verifiëren zijn. Wat gebeurt er als elke opname van een misstap bij een bedrijf, elke video van een scheve schaats rijdende echtgenoot, zelfs de babyfoto’s van een kind, zijn geloofwaardigheid als bewijsmateriaal verliest? En wat dacht je van gedokterd videomateriaal waarmee je je politieke tegenstander zwart maakt? Deze beelden zullen – eenmaal verspreid – in korte tijd bij miljoenen mensen een blijvende indruk achterlaten en enorme schade aanrichten, ook al wordt uiteindelijk bewezen dat ze niet authentiek zijn.

Donald Trump heeft naar verluidt al beweerd dat de “grab ‘em by the p***y” opmerking niet door hem werd gemaakt. Over twee jaar zou hij een argument kunnen hebben (steekhoudend of niet) dat het hier om een gefabriceerde opname gaat.

Zullen we door deze ontwikkelingen uiteindelijk aan alles in de samenleving gaan twijfelen? Komen we in een wereld terecht waarin waarheid en leugens zo met elkaar verweven zijn dat we ze niet meer uit elkaar kunnen houden? En geloven we dan maar wat we willen geloven, ongeacht wat de échte waarheid is? Of doen we dat eigenlijk al…?

Hoe kunnen we nep straks nog van echt onderscheiden?

Door de verregaande verspreiding van hyperrealistisch nepnieuws op social media en de daaruit voortvloeiende erosie van het vertrouwen, zal het goed onder de loep nemen van content steeds belangrijker worden. En dit zal meer vergen dan reclameverboden door social mediagiganten of geautomatiseerde feitencheckers die nepnieuws kunnen identificeren voordat het de kans krijgt zich te verspreiden. Consumenten van nieuws op social media – en dat zijn wij bijna allemaal – zullen ook hun steentje moeten bijdragen.

Volgens Mandy Jenkins van Storyful, een sociaal nieuwsbureau dat gespecialiseerd is in de verificatie van nieuwsberichten, zijn er verschillende dingen die je als consument kunt doen. Om te beginnen moet je controleren of de audio in een video goed gesynchroniseerd is. Daarnaast zou je schaduwen en lichtval goed moeten bekijken en controleren of deze overeenkomen met het tijdstip waarop de video zou zijn opgenomen. Ook kun je bekijken of de afmetingen en verhoudingen van alle elementen in de video wel kloppen. Andere dingen waar je op kunt letten zijn de locatie waar de beelden zijn gemaakt, dat het weer overeenkomt met de weerberichten van die dag, en welke andere mensen bij het evenement aanwezig waren.

Boczkowski: “Wat moet veranderen is de interpretatiecultuur. “Wanneer een verhaal over paus Franciscus die de kandidatuur van Donald Trump goedkeurt meer dan een miljoen keer gedeeld wordt, vertelt dat ons dat we er kennelijk nog niet klaar voor zijn om dit soort valse informatie te herkennen”.

Hopelijk zullen we door de explosieve groei van nepnieuws en audio/videomanipulatietechnologie en de potentiële ellende die dit kan veroorzaken inzien dat we content op social media in de toekomst veel beter moeten controleren voordat we op ‘delen’ klikken.

We zitten middenin een technologische revolutie en de trends, technologieën en innovaties die we verwachten zijn stuk voor stuk grensverleggend …

Gratis trendservice

Ontvang elke maand gratis de laatste inzichten, onderzoeksmateriaal, e-books, white papers en artikelen van ons onderzoeksteam!