Twee personen met zwarte hoodies zitten in een donkere kamer voor een enorm scherm waarop wereldkaarten en beelden van straathoeken en gebouwen te zien zijn.

Wordt generative AI nu ook een machtig wapen voor gewelddadige extremisten?

Nu generative AI-tools op steeds grotere schaal beschikbaar komen, trekken ze onvermijdelijk ook steeds meer de aandacht van individuen en organisaties die ze voor gewelddadige doeleinden willen inzetten.
  • Terroristen hebben binnenkort een nieuw wapen in hun arsenaal: generative AI
  • De rol van generative AI in het Israël-Hamas-conflict
  • Hoe beschermen we onszelf tegen de opkomende dreiging?
  • Zijn de zorgen over de gevolgen van generative AI terecht?

We weten inmiddels dat generative AI allerlei taken kan stroomlijnen en ons leven — en onze banen — een stuk eenvoudiger kan maken. Maar zoals vaak het geval is met nieuwe geavanceerde technologieën, brengt de introductie ervan ook een breed scala aan potentiële gevaren met zich mee die het enthousiasme rond generative AI dreigen te temperen. Nu generative AI-tools op steeds grotere schaal beschikbaar komen, trekken ze onvermijdelijk ook steeds meer de aandacht van individuen en organisaties die ze voor gewelddadige doeleinden willen inzetten, zoals cyberstalking, (identiteits)fraude en verspreiding van valse informatie. De meest zorgwekkende ontwikkeling is dat steeds meer extremistische groeperingen generative AI gebruiken omdat ze er enorme hoeveelheden tekst-, beeld-, audio- en video-content mee kunnen produceren waarmee ze digitale platforms met een eindeloze stroom propaganda kunnen overspoelen.

“Honderden miljoenen mensen over de hele wereld zitten binnenkort urenlang met deze kunstmatige metgezellen te chatten — in alle talen van de wereld”.

Jonathan Hall, onafhankelijk beoordelaar van de terrorismewetgeving in het VK

Terroristen hebben binnenkort een nieuw wapen in hun arsenaal: generative AI

Terroristen maken vaak gebruik van de nieuwste technologieën. Ze hebben door de jaren heen keer op keer laten zien hoe ze technologische innovaties inzetten om hun slagkracht te vergroten. Geavanceerde technologie maakt het eenvoudiger om hun verwoestende aanvallen op maatschappelijke infrastructuren uit te voeren, schadelijke ideologieën te verspreiden en nieuwe leden te werven. Zo maken terroristen al jarenlang gebruik van cryptocurrencies, encryptie, chatbots en AI-drones – om maar een paar voorbeelden te noemen. Het is dan ook een kwestie van tijd voordat ook generative AI op veel grotere schaal ingezet wordt door dit soort groepen. Steeds meer experts uit de sector geven te kennen dat ze zich zorgen maken over wat er gebeurt wanneer tools als ChatGPT in verkeerde handen vallen en worden gebruikt om terreurboodschappen en propaganda te verspreiden. Want naarmate generative AI steeds overtuigender resultaten kan produceren, zal het detecteren en bestrijden van terroristische content steeds moeilijker worden, waardoor steeds meer mensen grotere risico’s lopen. “Honderden miljoenen mensen over de hele wereld zitten binnenkort urenlang met deze kunstmatige metgezellen te chatten — in alle talen van de wereld”, zegt Jonathan Hall, onafhankelijk recensent van terrorismewetgeving in het Verenigd Koninkrijk.

Tech Against Terrorism, een non-profitorganisatie die het terroristische gebruik van het internet wil tegengaan, heeft onlangs een rapport gepubliceerd waarin manieren worden belicht waarop extremistische groeperingen generative AI kunnen gebruiken om hun doelen te bereiken. Een voorbeeld is automatische vertaaltools, waarmee je propaganda met één klik op de knop in meerdere talen kunt vertalen en een veel breder publiek sneller bereikt dan ooit tevoren. Bovendien kan generative AI terroristen helpen met het stroomlijnen van online recruitment, bijvoorbeeld door gepersonaliseerde berichten te creëren die slim inspelen op de pijnpunten van individuele personen of groepen, waardoor ze veel meer impact hebben. Het is ook belangrijk om te vermelden dat niet alle generative AI-modellen dezelfde ethische richtlijnen volgen. ChatGPT weigert bijvoorbeeld ronduit discussies te faciliteren of vragen te beantwoorden die aan gewelddadige activiteiten kunnen bijdragen. Als je Chat vraagt hoe je een wapen moet maken, een terreuraanslag moet plegen of een verhaal moet schrijven over een fictieve persoon die zich met illegale zaken bezighoudt, krijg je geen medewerking. Perplexity Ask, daarentegen, doet daar niet moeilijk over en beantwoordt dit soort vragen zonder probleem. Deze tool gaat zelfs zo ver dat het gedetailleerde instructies geeft over hoe je iemand het beste kunt onthoofden of hoe je een dodelijk gif kunt maken. Wel waarschuwt Perplexity je om de instructies in het echte leven niet op te volgen, althans niet “zonder de juiste training en veiligheidsmaatregelen”.

De rol van generative AI in het Israël-Hamas-conflict

Ook in real-world politieke conflicten wordt generative AI al volop gebruikt. Zo heeft het er in de aanhoudende oorlog tussen Israël en Hamas al toe geleid dat er een duizelingwekkende hoeveelheid desinformatie online is geplaatst. Denk bijvoorbeeld aan misleidende tekstcontent en gemanipuleerde foto’s en video’s van totaal andere gebeurtenissen uit de wereld die niets met het conflict te maken hebben. Er is zelfs al geprobeerd om beelden uit videogames te laten doorgaan als bewijs van wreedheden door ‘de tegenpartij’. Beide ‘kanten’ zetten generative AI ook steeds vaker in om sympathie of support te werven —  of de illusie te creëren dat de wereld aan hun kant staat. Er is bijvoorbeeld een Israëlisch account dat regelmatig beelden deelt die door AI gegenereerd zijn. Hierop zijn onder andere menigten te zien die de Israel Defense Forces (IDF) toejuichen. Ook hebben onderzoekers talloze nepbeelden geïdentificeerd waarop slachtoffers van de Israëlische aanvallen op Gaza te zien zijn. Dit vertekent niet alleen de realiteit van de situatie, maar manipuleert ook de publieke perceptie.

Sommige door AI gegenereerde beelden van de oorlog tussen Israël en Hamas zijn zelfs in online artikelen terechtgekomen en door kleinere nieuwsmedia online geplaatst, vaak zonder enige vermelding dat het om nepbeelden gaat. Deze ‘foto’s’ zijn afkomstig van Adobe Stock, een online marktplaats waar mensen afbeeldingen kunnen verkopen die met generative AI-tools zijn gemaakt. Op de Adobe-site staat wel duidelijk vermeld dat de afbeeldingen nep zijn, maar toch worden ze door gebruikers als echt gepresenteerd. Om dit probleem te bestrijden werkt Adobe samen met verschillende andere technologie- en mediaorganisaties, waaronder Microsoft, de BBC en de New York Times, om het Content Authenticity Initiative te lanceren. Dit initiatief heeft als doel om adoptie van Content Credentials aan te moedigen, een nieuw soort metadata met bepaalde details over de oorsprong van een afbeelding. “Met Content Credentials kun je essentiële context zien over hoe een stukje digitale content is vastgelegd, gecreëerd of bewerkt, inclusief of daarbij AI-tools zijn gebruikt”, aldus een woordvoerder van Adobe. Naarmate het steeds lastiger wordt om AI-content te identificeren worden deze en soortgelijke oplossingen steeds belangrijker.

“Het gebruik van digitale platforms om gewelddadige extremistische content te verspreiden is een urgent probleem met real-world gevolgen”.

Brad Smith, vicevoorzitter en president van Microsoft

Hoe beschermen we onszelf tegen de opkomende dreiging?

Tot nu toe zijn de zogenaamde hashing-databases zeer effectief gebleken in de strijd tegen online extremisme. Een hashing-database is een soort opslagplek voor materiaal dat al eerder als gewelddadige en extremistische content gemarkeerd is. Hier kunnen online platforms automatisch zien wanneer een andere gebruiker soortgelijke content deelt — en dit vervolgens offline halen. Maar omdat er nu zo enorm veel AI-content wordt gecreëerd en verspreid, wordt het nut van hashing-databases grotendeels tenietgedaan. Een recent rapport van Tech Against Terrorism laat meer dan 5.000 voorbeelden zien van AI-content binnen terroristische en extremistische groeperingen. Zo doet een handleiding van een techgroep van de pro-Islamitische Staat de ronde, die IS-aanhangers instrueert over het gebruik van ChatGPT en tegelijkertijd de veiligheid van de gebruiker garandeert. Het rapport maakt ook melding van een kanaal op een populaire berichten-app waar racistische, antisemitische en pro-nazi-afbeeldingen kunnen worden gedeeld. Propagandaposters van Al-Qaeda met door AI gegenereerde afbeeldingen zijn ook als voorbeeld opgenomen in het rapport. “Als terroristen generative AI gaan gebruiken om beelden op grote schaal te manipuleren, heeft hash-sharing geen zin meer. Dat is een enorm risico en onze grootste zorg”, zegt Adam Hadley, uitvoerend directeur van Tech Against Terrorism.

Wel kan generative AI mogelijk een  oplossing bieden voor het probleem dat het zelf de wereld in geholpen heeft. Zo is Tech Against Terrorism onlangs met techgigant Microsoft om te tafel gaan zitten om een ​​AI-tool te ontwikkelen die problematische content automatisch kan detecteren. “Het gebruik van digitale platforms om gewelddadige extremistische content te verspreiden is een urgent probleem met real-world gevolgen”, zegt Brad Smith, vicevoorzitter en president van Microsoft. “Door de mogelijkheden van Tech Against Terrorism te combineren met AI, hopen we een bijdrage te leveren aan een veiliger wereld, zowel online als offline”. De tool zal vooral nuttig zijn voor kleinere platforms, die doorgaans niet over de middelen en de expertise beschikken om de stroom van dit soort extremistische content op hun netwerken aan te pakken zoals grote techspelers dat doen. Je zou zelfs kunnen stellen dat het succes dat grote social mediaplatforms hebben met het bestrijden van extremistische content er (onbedoeld) toe heeft bijgedragen dat deze content nu verschoven is naar kleinere platforms. “Nieuwe, speciaal ontwikkelde en betrouwbare AI-systemen zouden ons een enorme stap vooruit kunnen helpen bij het opsporen van schadelijke content — inclusief door AI gecreëerde terroristisch  materiaal⁠ — en dan op een genuanceerde, wereldwijd schaalbare manier. Hierdoor zou een effectievere menselijke beoordeling van dit soort materiaal mogelijk kunnen worden”, voegt Hadley toe.

Tech Against Terrorism heeft bovendien een soortgelijk partnerschap gevormd met Google’s dochteronderneming Jigsaw om de gratis tool ‘Altitude’ te ontwikkelen, die specifiek is ontworpen om kleinere platforms te helpen terroristische content op te sporen en uit hun netwerken te verwijderen. “Islamitische Staat en andere terroristische groeperingen hebben het internet nog niet hun rug toegekeerd, ook al hebben ze geen toegang meer tot de grote social mediaplatforms. Ze zijn gewoon ergens anders heen gegaan”, zegt Yasmin Green, de CEO van Jigsaw. “Ze ontdekten dat ze content konden hosten op kleinere en middelgrote platforms, zoals file-hostingsites of soortgelijke websites. Die platforms willen in principe geen terroristische content, maar ze hosten het tóch — enorme hoeveelheden zelfs”. Met gebruik van Altitude kunnen bedrijven elk stukje content dat op hun netwerken wordt gevonden vergelijken met bestaande content in het Terrorist Content Analytics Platform van de NGO die terrorisme opspoort. Op die manier kunnen ze terroristisch materiaale beter detecteren. De tool biedt niet alleen context over de terroristische groeperingen die aan die specifieke content zijn gelinkt, maar geeft ook aanvullende voorbeelden van vergelijkbare soorten content en informatie over wat andere platforms ermee gedaan hebben. Het biedt zelfs informatie over lokale of regionale wetten die van toepassing zijn op dit soort content. “We zijn hier niet om platforms te vertellen wat ze moeten doen, maar om ze belangrijke informatie te geven waarmee ze de juiste moderatiebeslissingen kunnen nemen”, zegt Hadley. “We willen de kwaliteit van de respons verbeteren. Het gaat niet om het volume van het verwijderde materiaal, maar dat ervoor gezorgd wordt dat het allerergste materiaal wordt verwijderd — en op een manier die aan de regels voldoet”.

Zijn de zorgen over de effecten van generative AI terecht?

Toch zijn er mensen die beweren dat de zorgen over de impact van generative AI buitenproportioneel en enorm opgeblazen zijn. Eén van deze mensen is Layla Mashkoor, associate editor bij het Digital Forensic Research Lab van de Atlantic Council. Volgens haar is het onwaarschijnlijk dat door AI gegenereerde beelden een grote impact zullen hebben op de publieke perceptie, omdat er al zo’n enorme hoeveelheid desinformatie beschikbaar is. Het recente artikel Misinformation Review, dat werd gepubliceerd door de Harvard Kennedy School, weerspiegelt een soortgelijke gedachte en stelt dat er op complottheoriewebsites en 4chan-forums al meer dan genoeg van dit soort content te vinden is, waardoor er eenvoudigweg geen behoefte of vraag naar meer of nieuwe bronnen zou zijn. “Gezien de creativiteit die mensen door de geschiedenis heen hebben getoond om verhalen te verzinnen en de vrijheid die mensen nu al hebben om desinformatie te creëren en over de hele wereld te verspreiden, is het onwaarschijnlijk dat een groot deel van de bevolking op zoek is naar nog meer desinformatie, omdat ze die online — of offline — al kunnen vinden”, staat in het rapport te lezen. Hoewel de auteurs niet ontkennen dat je met generative AI enorm realistische content kunt produceren, zijn ze van mening dat je met Photoshop of videobewerkingssoftware vergelijkbare — misschien zelfs betere of effectievere — resultaten kunt bereiken. “Er zijn veel verschillende manieren om de dialoog of de online informatieruimte te manipuleren”, beaamt Mashkoor. “En dat kan op manieren die eenvoudiger zijn en waar je misschien geen specifieke technologie voor nodig hebt. Ook al is AI-genererende software makkelijk te verkrijgen, zijn er zeker eenvoudiger manieren om iets te manipuleren”.

Een laatste overweging

Het is duidelijk dat generative AI-tools als ChatGPT — hoewel ze heel nuttig zijn — ook bepaalde risico’s met zich meebrengen, vooral in de handen van extremistische groeperingen. Het spectrum van potentiële bedreigingen is enorm uitgebreid en varieert van het wereldwijd verspreiden van propaganda tot het manipuleren van het publieke sentiment. Nu AI-tools steeds realistischer nepmateriaal genereren, wordt het ook steeds lastiger om dit op te sporen. Maar gelukkig — en paradoxaal genoeg — kunnen deze zelfde technologieën oplossingen bieden voor de problemen die erdoor zijn ontstaan. Projecten als de samenwerking van Tech Against Terrorism met techgiganten Microsoft en Google’s Jigsaw laten zien dat generative AI de verspreiding van extremistische content ook tegen kan gaan. Het debat woedt echter voort. Sommige deskundigen beweren namelijk dat de zorgen rond de impact van generative AI overdreven zijn en wijzen op het feit dat desinformatie toch al op wereldwijde schaal verspreid wordt.

Wat de situatie ook is, of hoe de meningen ook uiteen lopen, we weten wel dat we in dit digitale tijdperk voor een aanzienlijke uitdaging staan; een uitdaging waar we niet alleen geavanceerde technologische oplossingen voor nodig hebben, maar ook een goed geïnformeerd en kritisch publiek. Het wordt steeds belangrijker om de content waar we mee geconfronteerd worden niet zomaar als waar aan te nemen, maar de authenticiteit ervan eerst te verifiëren. We moeten de diepgaande invloed van AI op ons informatie-ecosysteem erkennen en streven naar betere ‘mediageletterdheid’, kritisch denken en met niets minder dan de waarheid genoegen nemen. Dit is misschien wel het krachtigste wapen dat we in handen hebben tegen het misbruik van generative AI: onze collectieve wijsheid om feiten van verzinsels te kunnen onderscheiden en de verspreiding van digitaal extremisme een halt toe te roepen.