Het nieuwe gezicht van cyberdreigingen: hoe generative AI aanvalstechnieken verandert

Foto van Richard van Hooijdonk
Richard van Hooijdonk
Ook cybercriminelen maken steeds vaker gebruik van generative AI. Wat kunnen we doen om onszelf deze nieuwe bedreigingen te beschermen?
  • Is ChatGPT een nieuw wapen voor cybercriminelen?
  • Even voorstellen: WormGPT, de kwaadaardige tweelingbroer van ChatGPT
  • Hoe bescherm je jezelf tegen door AI gegenereerde cyberaanvallen?
  • AI-model van Perception Point biedt bescherming tegen AI-gestuurde cyberaanvallen
  • Cybercriminelen pas op, DarkBERT is hier

Het gebied van kunstmatige intelligentie (AI) heeft de afgelopen jaren een opmerkelijke groei doorgemaakt, grotendeels aangewakkerd door de opkomst van generative AI. In de kern gaat het bij deze baanbrekende technologie om het trainen van krachtige machine learning-modellen om autonoom creatieve en opvallend authentieke resultaten te produceren. Deze kunnen variëren van geschreven teksten en visuele afbeeldingen tot audiofragmenten die overtuigend menselijk klinken. Het meest indrukwekkende kenmerk van generative AI is het vermogen om van enorme hoeveelheden bestaande data te leren, complexe patronen te interpreteren en die patronen vervolgens bij het creëren van nieuwe, originele content te simuleren. Dit niveau van machinegestuurde creativiteit is ontzagwekkend en verschuift de grenzen van wat we tot voor kort van kunstmatige dachten te kunnen verwachten.

In een relatief kort tijdsbestek heeft generative AI op verschillende gebieden allerlei toepassingen gevonden. Deze technologie wordt zelfs gebruikt voor het creëren van kunst, waardoor ook onze traditionele visie op kunst en creativiteit uitgedaagd wordt. In de film- en entertainmentwereld draagt AI bij aan filmproductie, muziekcreatie en gamedesign. Naast de genoemde indrukwekkende positieve mogelijkheden van generative AI, kan deze technologie ook voor duistere doeleinden gebruikt worden. In de  handen van cybercriminelen is generative AI bijvoorbeeld een zeer veelzijdige tool waarmee nietsvermoedende doelwitten aangevallen kunnen worden. Zo wordt de tech gebruikt voor het creëren van overtuigende valse digitale identiteiten of zeer geavanceerde phishing-e-mails waarmee gevoelige informatie ontfutseld kan worden. Het is dan ook van belang om zeer alert te blijven op de potentiële bedreigingen die door deze technologie aan een opmars bezig zijn.

“Generative AI stelt cybercriminelen in staat om foutloze, authentiek lijkende e-mails te produceren die gevestigde patronen omzeilen, waardoor de aanval steeds moeilijker te identificeren is”.

Dan Shiebler, teamleider Machine Learning bij Abnormal Security

Is ChatGPT een nieuw wapen voor cybercriminelen?

Een recent onderzoek van Abnormal Security, een toonaangevend e-mailbeveiligingsplatform, onthulde een alarmerende toename van het gebruik van generative AI-tools als ChatGPT om geavanceerde aanvallen uit te voeren, waaronder vendor-fraude, business email compromise (BEC) en phishing. Voorheen kon je phishingpogingen herkennen aan spel- en grammaticafouten in de tekst, maar omdat generative AI menselijke communicatie met verontrustende nauwkeurigheid kan nabootsen wordt het steeds moeilijker om phishingmails als zodanig te herkennen. Dan Shiebler, teamleider Machine Learning bij Abnormal Security, zegt: “Generative AI stelt cybercriminelen in staat om foutloze, authentiek lijkende e-mails te produceren die gevestigde patronen omzeilen, waardoor je zo’n aanval steeds moeilijker kunt herkennen”.

Het onderzoek wees ook op een verschuiving in de focus van cybercriminelen. Zo veranderen standaard BEC-aanvallen steeds meer naar vendor-imitatie-aanvallen, ook wel bekend als Vendor Email Compromise (VEC)-aanvallen. Deze aanvallen maken gebruik van het vertrouwen tussen klanten en leveranciers en zetten geavanceerde social engineering-technieken in om hun doelwit te misleiden. Met generative AI kunnen cybercriminelen hun aanvallen bovendien personaliseren. Bijvoorbeeld door aspecten van de digitale voetafdruk van hun doelwit in de e-mails op te nemen, waardoor de misleiding verder wordt versterkt. ChatGPT zou ook als een toegangspoort kunnen fungeren waardoor zelfs minder ervaren criminelen cyberaanvallen eenvoudig kunnen uitvoeren. “Zoals we al vermoedden, toonden sommige gevallen duidelijk aan dat veel cybercriminelen die OpenAI gebruiken helemaal geen development-vaardigheden hebben”, waarschuwt een recent rapport van cyberbeveiligingsbedrijf Check Point Research. “Hoewel de tools waar we het in dit rapport over hebben vrij eenvoudig zijn, is het slechts een kwestie van tijd totdat meer geavanceerde criminelen betere manieren vinden om deze tools voor hun misdaden te gebruiken”.

Even voorstellen: WormGPT, de kwaadaardige tweelingbroer van ChatGPT

In een poging het ongebreidelde misbruik van zijn platform tegen te gaan, heeft OpenAI strengere barrières en beperkingen geïmplementeerd binnen de ChatGPT-gebruikersinterface. Deze barrières zijn ontworpen om te voorkomen dat het model schadelijke content genereert, zoals phishingmails of malware. Ondanks deze stap vinden cybercriminelen echter nog steeds manieren om de beschermende maatregelen van ChatGPT te omzeilen. Volgens Check Point Research gonzen ondergrondse fora van de discussies over manieren om OpenAI’s API te gebruiken voor oplichting en andere vormen van (cyber)criminaliteit. De meest gebruikelijke techniek is het creëren van Telegram-bots die de genoemde API gebruiken, en helaas bestaan hier momenteel nog geen adequate maatregelen tegen. Een andere alarmerende ontwikkeling is dat cybercriminelen steeds vaker zogenaamde ‘jailbreaks’ bedenken voor interfaces als ChatGPT. Dit zijn in principe speciaal geconstrueerde prompts om ChatGPT te misleiden en bepaalde output te genereren. Deze output kan bijvoorbeeld gebruikt worden om een potentieel doelwit zo te manipuleren dat gevoelige informatie onthuld wordt, of dat kwaadaardige code uitgevoerd wordt.

Uit een onderzoek door het cyberbeveiligingsbedrijf SlashNext blijkt dat er een nieuwe tool is ontwikkeld met de naam WormGPT, die in de undergroundscene wordt aangeprezen als “een blackhat-alternatief voor GPT-modellen”. De WormGPT wordt omschreven als een lanceerplatform voor geavanceerde phishing- en BEC-aanvallen en is uitgerust met onbeperkte karakterondersteuning, behoud van chatgeheugen en mogelijkheden voor het formatteren van codes. Volgens de ontwikkelaar is de tool getraind op een verscheidenheid aan data, met een specifieke focus op malware-gerelateerde datasets, hoewel de specifieke datasets vertrouwelijk blijven. Om de capaciteiten van WormGPT op de proef te stellen, voerden de onderzoekers een experiment uit waarbij de tool een alarmerend overtuigende e-mail opstelde die een nietsvermoedende accountmanager onder druk zette om een frauduleuze factuur te betalen. Volgens de ontwikkelaar hebben al meer dan 1.500 gebruikers voor toegang tot de tool betaald, die via een abonnementsmodel beschikbaar is. Beveiligingsonderzoekers zijn ook FraudGPT tegengekomen, een andere kwaadaardige chatbot die op hackforums wordt geadverteerd. Net als WormGPT kan FraudGPT sms-phishingberichten genereren en zelfs informatie geven over de beste sites voor creditcardfraude.

Hoe bescherm je jezelf tegen door AI gegenereerde cyberaanvallen?

De opkomst van geavanceerde, AI-gestuurde tools als WormGPT onderstreept de voortdurende evolutie van cyberdreigingen en benadrukt hoe belangrijk het is — zowel voor individuele personen als bedrijven — om beveiligingssystemen met robuuste tegenmaatregelen te boosten en risicobeperkende strategieën te implementeren. Multifactor authentication (MFA) biedt bijvoorbeeld essentiële beveiliging en fungeert als een samengestelde barrière tegen ongeautoriseerde toegang. Door via verschillende media om aanvullende verificatie te vragen, zoals een vingerafdruk of een unieke tekstcode, voegt MFA een soliede hindernis toe die het cybercriminelen lastig maakt om hun activiteiten uit te voeren. Gedegen kennis speelt ook een centrale rol in een alomvattende veiligheidsaanpak. Bedrijven moeten regelmatig trainingen geven op het gebied van beveiligingsbewustzijn om werknemers op de hoogte te houden van nieuwe cyberdreigingen. Het leren begrijpen van de nuances van phishing- en BEC-aanvallen — die zeer subtiel kunnen zijn en vaak sprekend lijken op legitieme verzoeken van vertrouwde bronnen — is een belangrijk onderdeel van deze trainingen. Ook geavanceerde e-mailfiltersystemen zijn cruciaal. Deze kunnen verdachte e-mails door middel van complexe algoritmen en heuristische analyse identificeren en blokkeren, waardoor potentieel gevaarlijke communicatie wordt gestopt voordat deze zelfs maar een inbox bereikt.

Voor een proactieve benadering van cyberbeveiliging moeten organisaties zorgen dat er een scepsiscultuur ontstaat. Werknemers moeten worden aangemoedigd om verzoeken om gevoelige informatie dubbel te controleren en via verschillende kanalen te verifiëren. Dit fungeert als een extra, menselijke verdedigingslaag tegen slimme social engineering-tactieken. Ook regelmatige software- en systeemupdates zijn van cruciaal belang. Deze updates bevatten vaak kritieke beveiligingspatches die zijn ontwikkeld om bekende fouten, lekken of kwetsbaarheden op te lossen. Door deze updates uit te stellen kunnen er ingangen ontstaan waardoor cybercriminelen ongehinderd hun gang kunnen gaan. Nu tools als WormGPT zeer overtuigende nep-e-mails kunnen genereren, zijn traditionele beveiligingsmaatregelen steeds vaker ontoereikend. Het wordt voor cyberbeveiligingsexperts dan ook steeds belangrijker om geavanceerde detectiemechanismen te ontwikkelen die AI-gegenereerde content kunnen herkennen. Om AI-gestuurde cybercriminaliteit te dwarsbomen is een gezamenlijke aanpak nodig. Cybersecurity-professionals, onderzoekers en beleidsmakers moeten met elkaar samenwerken om deze nieuwe dreigingen beter te begrijpen en om effectieve oplossingen te ontwikkelen waarmee we deze geavanceerdere bedreigingen kunnen bestrijden.

“Verouderde e-mailbeveiligingsoplossingen die afhankelijk zijn van handtekeningen en reputatieanalyse kunnen zelfs de meest elementaire BEC-aanvallen zonder payload nauwelijks stoppen”.

Tal Zamir, CTO van Perception Point

AI-model van Perception Point biedt bescherming tegen AI-gestuurde cyberaanvallen

Als reactie op de recente toename van het aantal cyberaanvallen waarbij gebruikgemaakt wordt van generative AI, heeft de cybersecurityprovider Perception Point geavanceerde detectietechnologie ontwikkeld gebaseerd op large language models (LLMs) en een deep learning-architectuur om AI-gestuurde BEC-aanvallen te identificeren en af te weren. Volgens het bedrijf biedt de nieuwe technologie oplossingen voor de belangrijkste beperkingen van conventionele e-mailbeveiligingssystemen, die afhankelijk zijn van contextuele en gedragsdetectie om potentiële bedreigingen te identificeren. Omdat conventionele patronen waar deze systemen op getraind zijn bij AI-gestuurde aanvallen ontbreken, blijven ze vaak onopgemerkt. “Verouderde e-mailbeveiligingsoplossingen die afhankelijk zijn van handtekeningen en reputatieanalyse kunnen zelfs de meest elementaire BEC-aanvallen zonder payload nauwelijks stoppen”, vertelt Tal Zamir, CTO van Perception Point. “De belangrijkste kracht van ons nieuwe model ligt in het herkennen van de herhaling van identificeerbare patronen in LLM-gegenereerde tekst. Het model maakt gebruik van een unieke driefasenarchitectuur die BEC met uiterste nauwkeurigheid detecteert en valse positieven minimaliseert”.

Een ander belangrijk probleem met bestaande oplossingen is dat ze sterk afhankelijk zijn van ‘detectie na bezorging’, waardoor schadelijke e-mails geruime tijd in de inbox van de gebruiker op de loer blijven liggen voordat ze worden verwijderd. De nieuwe oplossing van Perception Point hanteert een proactievere benadering. Het scant alle e-mails voordat ze in de inbox van de gebruiker belanden en plaatst verdachte e-mails in quarantaine. Dit helpt het risico en de potentiële schade van detectietechnieken die pas werken als het systeem al is gecompromitteerd te minimaliseren. Volgens het bedrijf heeft de tool gemiddeld maar 0,06 seconden nodig om een inkomende e-mail te analyseren. Om dit mogelijk te maken, heeft het bedrijf het model getraind op honderdduizenden schadelijke voorbeelden die het in de loop der jaren heeft verzameld. Regelmatige updates zorgen daarnaast dat de tool ook bij nieuwe bedreigingen effectief blijft. Om valse positieven te beperken die kunnen voortkomen uit legitieme, AI-gegenereerde e-mails, gebruikt het model een unieke driefasenstructuur. Na de eerste score worden transformatoren en clusteralgoritmen gebruikt om de content te categoriseren. Door de inzichten hiervan met aanvullende data te combineren, zoals de reputatie van de afzender en authenticatieprotocoldetails, kan het model bepalen of een e-mail al dan niet door AI is gegenereerd en het potentiële dreigingsniveau beoordelen.

Cybercriminelen pas op, DarkBERT is hier

Populaire large language models (LLMs) als ChatGPT en Bard worden meestal getraind op diverse en openbaar toegankelijke gegevens, zoals webpagina’s, academische papers en boeken. Onderzoekers van het Korea Advanced Institute of Science and Technology (KAIST), in samenwerking met data-intelligencebedrijf S2W, kozen met hun nieuwe AI-model DarkBERT echter voor een iets andere aanpak. Wat DarkBERT anders maakt dan conventionele LLMs, is dat het alleen is getraind op gegevens die via het Tor-netwerk van het dark web zijn verkregen. Het trainingsproces, dat 16 dagen duurde, omvatte het gebruik van twee verschillende datasets, waarbij informatie als de identiteit van slachtoffers en details van gelekte gegevens zorgvuldig werden geredigeerd. De onderzoekers namen ook verdere stappen om ervoor te zorgen dat er op ethisch verantwoorde manier met gevoelige informatie omgegaan werd. Daarvoor maakten ze gebruik van strategieën als deduplicatie, datafiltering en voorverwerking. DarkBERT is gebaseerd op het RoBERTa-algoritme, dat oorspronkelijk in 2019 door Facebook-onderzoekers werd geïntroduceerd. Het kan de complexe omgeving van het dark web effectief ontcijferen, waardoor het de ingewikkelde nuances ervan beter kan begrijpen en diep in de verborgen lagen kan duiken waar dit deel van het internet bekend om staat. Maar laat je niet misleiden door de onheilspellende naam: DarkBERT is eigenlijk ontwikkeld om cybercriminaliteit te bestrijden. Met het dark web als oefenterrein presteert het op het gebied van cyberbeveiliging en CTI-toepassingen beter dan traditionele LLMs. Het model kan onder meer worden gebruikt om de oorsprong van ransomware-lekken op te sporen en verdachte websites te identificeren, en biedt beveiligingsonderzoekers een nieuwe tool in hun strijd tegen cybercriminaliteit.

Een laatste overweging

De innovatieve mogelijkheden van generative kunstmatige intelligentie, aanvankelijk geprezen voor het creëren van allerlei originele soorten content, worden nu ook steeds vaker door cybercriminelen gebruikt. Omdat generative AI menselijke communicatie haast angstaanjagend accuraat kan nabootsen, wordt deze technologie ook voor allerlei schadelijke activiteiten ingezet, zoals oplichting en phishingaanvallen. Nog zorgwekkender is dat een nieuw soort AI-tool, die getraind is op schadelijke datasets, is opgedoken in obscure internetruimten, waarmee cybercriminelen geavanceerde aanvallen kunnen orkestreren, wat ernstige cybersecurityproblemen veroorzaakt.

Als reactie op deze bedreigingen worden echter nieuwe, op AI gebaseerde tools ontwikkeld, die AI-gestuurde cyberdreigingen kunnen identificeren en tegengaan. Deze tools richten zich bijvoorbeeld op het detecteren van herhaalde patronen in door AI gegenereerde teksten, die kunnen wijzen op frauduleuze activiteiten. Verder worden er AI-modellen ontwikkeld die specifiek zijn getraind op data uit de donkere hoeken van het internet. Deze modellen, die verdachte online activiteiten kunnen detecteren en cyberdreigingen naar hun oorsprong kunnen herleiden, bieden veelbelovende nieuwe mogelijkheden in de strijd tegen cybercriminaliteit. Nu we geconfronteerd worden met steeds geavanceerdere AI-gestuurde bedreigingen, is het van cruciaal belang — zowel voor individuele personen als bedrijven — om securitysystemen aan te scherpen, op de hoogte te blijven van nieuwe (cyber)dreigingen en een scepsiscultuur te bevorderen. Alleen dan kunnen we de dreiging op afstand houden.

Share via
Copy link