Een blik op de toekomst van generative AI: ‘realiteit’ krijgt een compleet nieuwe betekenis

Foto van Richard van Hooijdonk
Richard van Hooijdonk
Het wordt in de toekomst steeds moeilijker om feiten van door AI gecreëerde fictie te onderscheiden. Wat we nu nog als echt beschouwen, gaan we binnenkort steeds meer in twijfel trekken.
  • De razendsnelle opkomst van generative AI
  • Overal liggen risico’s op de loer
  • Wat kan er allemaal misgaan?
  • Hoe beschermen we onszelf?

De afgelopen jaren hebben we een ongekende vooruitgang gezien op het gebied van kunstmatige intelligentie, en met name in de ontwikkeling van generative AI. Deze geavanceerde technologie verlegt de grenzen van wat we als realiteit waarnemen, en vormt ons begrip van de wereld op manieren die we nog maar net zijn gaan begrijpen. Kunstmatige intelligentie is inmiddels zo geavanceerd dat het in de toekomst steeds moeilijker wordt om feiten van door AI gecreëerde fictie te onderscheiden. Of het nu gaat om geschreven tekst, audio of zelfs video; wat we nu nog als echt beschouwen, gaan we binnenkort steeds meer in twijfel trekken. Stel je een wereld voor waarin de creaties van AI zo complex en zo realistisch zijn dat zelfs de meest geavanceerde forensische tools ze niet kunnen onderscheiden van door mensen gemaakte content. En helaas is dit geen dystopisch sciencefictionverhaal, maar een plausibele realiteit die zich voor onze ogen ontvouwt.

De consensus onder ’s werelds toonaangevende AI-experts is dus dat deze toekomst niet zo ver weg is als we misschien denken. Sterker nog, de meesten zijn het erover eens dat het meer dan waarschijnlijk is dat we hier binnen een decennium al steeds meer mee te maken gaan krijgen. Volgens sommige, meer pessimistische voorspellingen kunnen de snelle ontwikkelingen er zelfs toe leiden dat we tegen het einde van dit jaar al nauwelijks meer kunnen zien wat door mensen en wat door AI is gemaakt. De gevolgen zijn dus diepgaand en de mogelijke toepassingen zowel spannend als ontmoedigend. Het is dan ook essentieel om zorgvuldig met alle mogelijke ethische, sociale en juridische gevolgen om te gaan. De realiteit zoals we die kennen staat op het punt te veranderen, en in dit toekomstscenario speelt generative AI de hoofdrol.

Generative AI wordt op allerlei manieren ingezet. Niet alleen voor het creëren van unieke content en het oplossen van ingewikkelde vraagstukken, maar ook voor het ontdekken van patronen in gegevens en het verbeteren van complexe processen. Deze technologie heeft op elke industrie een enorme impact.

De razendsnelle opkomst van generative AI

Het duurde niet lang of de wereld was in één klap volledig in de ban van generative AI. In september 2023 telde ChatGPT maar liefst 180 miljoen gebruikers. Text-to-image-modellen als DALL-E, Midjourney en Stable Diffusion wonnen ook in korte tijd enorm aan populariteit. Maar hoewel tekst- en beeldgeneratie — en chatbots, natuurlijk — nu nog de populairste toepassingen zijn van deze baanbrekende technologie, is dit nog maar het begin van waar generative AI toe in staat is. Het wordt algemeen aangenomen dat generative AI een diepgaande impact zal hebben, zowel op het bedrijfsleven als de samenleving. Ook zal het doordringen tot domeinen die tot voor kort alleen aan mensen waren voorbehouden. Generative AI wordt nu al op allerlei manieren ingezet. Niet alleen voor het creëren van unieke content en het oplossen van ingewikkelde vraagstukken, maar ook voor het ontdekken van patronen in gegevens en het stroomlijnen van complexe processen. Met AI kun je bovendien fysieke tools manipuleren, unieke ontwerpen creëren, boeiende mediacontent produceren en zelfs verbluffende kunstwerken maken.

Hoewel de zakelijke wereld nog maar net begonnen is met het inzetten van generative AI, zijn de effecten daarvan nu al diepgaand. We zien de invloed bijvoorbeeld in marketingcontent en customer support en naarmate de technologie zich verder ontwikkelt, zullen we ook toepassingen gaan zien bij financiële besluitvorming en uiteindelijk in sterk geïntegreerde sectoren, zoals industriële procesautomatisering. Het is dan ook geen verrassing dat de markt voor generative AI tegen 2030 naar verwachting 75 tot 130 miljard dollar zal bereiken. Deze voorspellingen moeten echter met enige voorzichtigheid worden geïnterpreteerd, omdat de snelheid van technologische ontwikkeling — vooral met nieuwe technologieën als generative AI — het lastig maakt om precieze prognoses te doen.

Overal liggen risico’s op de loer

Er is geen twijfel dat we onze productiviteit en efficiëntie in vele verschillende vakgebieden met generative AI aanzienlijk kunnen verbeteren, zoals de dienstverlening, marketing en communicatie en industriële operaties. Maar net als bij de meeste baanbrekende technologieën uit het verleden, moeten we ook op het gebied van generative AI rekening houden met bepaalde risico’s. We hebben allemaal de berichten wel gehoord over de ‘dreigende AI-apocalyps’. En hoewel deze berichten hoofdzakelijk aangejaagd worden door de ongekende hype rondom generative AI en de aanzienlijke hoeveelheid misverstanden rond de technologie — die tot nu toe ongegrond zijn gebleken — wil dat niet zeggen dat het gebruik van deze technologie zonder risico is. Sterker nog, sommige van deze doemscenario’s zijn zeer reëel. Zoals vaak het geval is met nieuwe technologieën, is er bij generatieve AI ook sprake van zogenaamde kinderziektes die de kwaliteit van de output aanzienlijk kunnen beïnvloeden. Ook bestaat het risico dat kwaadwillenden de technologie voor duistere doeleinden inzetten — denk aan geavanceerde cyberaanvallen of het verspreiden van desinformatie.

En net als andere technologieën die afhankelijk zijn van machine learning, is ook generative AI alleen zo goed — of zo gebrekkig — als de data waarmee het is getraind. Als er vooroordelen in de trainingsgegevens zitten, zal generative AI deze in zijn output ook weerspiegelen, waardoor stereotypen en onjuiste beweringen in stand gehouden worden. Het is alsof je een kind leert de wereld te begrijpen op basis van een geschiedenisboek dat slechts één kant van het verhaal vertelt. Dit kan leiden tot een overmatige weergave van dominante wereldbeelden, waardoor de verhalen van minderheidsgroepen niet voldoende aan bod komen, verkeerd worden weerspiegeld, of in het ergste geval zelfs volledig worden weggelaten. Het risico is dus dat generative AI, wanneer het zonder zorgvuldig toezicht wordt ingezet, bevooroordeelde beslissingen kan nemen en bevooroordeelde outputs kan produceren. Dit brengt ons bij het volgende grote nadeel van generative AI-modellen: de zogenaamde ‘hallucinaties’. Zelfs als de trainingsset alleen correcte informatie bevat, is er altijd de mogelijkheid dat het model onjuiste outputs — hallucinaties — produceert, en die kunnen in twee typen worden onderverdeeld: kennisgebaseerde en berekeningsgebaseerde hallicunaties.

Bij het eerste type genereert de generative AI incorrecte informatie, en bij het tweede type maakt het verkeerde berekeningen. Zo blijkt uit recente onderzoeken dat de hallucinatieratio’s van  sommige generative AI-modellen, zoals bij het beantwoorden van professionele examenvragen, schrikbarend hoog kunnen zijn, namelijk meer dan 50 procent. Ook zijn generative AI-tools niet altijd in staat om complexere verzoeken te verwerken, waardoor het onzinnige afbeeldingen of teksten produceert. In verkeerde handen kan generative AI zo gemanipuleerd worden dat het de publieke opinie kan beïnvloeden, geavanceerde cyberaanvallen kan uitvoeren en hele samenlevingen kan ontwrichten. De technologie heeft het mogelijk gemaakt dat vrijwel iedereen allerlei overtuigende content kan creëren, variërend van tekst en afbeeldingen tot spraak en video. Maar deze gebruiksvriendelijkheid en brede toegankelijkheid hebben ook de weg vrijgemaakt voor onethisch gebruik. Een goed voorbeeld daarvan is de opkomst van deepfakes; gemanipuleerde of compleet verzonnen maar zeer realistische mediacontent die bijna niet van echt te onderscheiden is. Tussen 2020 en 2021 steeg het aantal online geplaatste deepfakevideo’s met maar liefst 900 procent. Wat nog verontrustender is, is dat deze deepfakes steeds realistischer worden. 

Uit een recente studie blijkt bijvoorbeeld dat mensen in maar de helft van de gevallen kunnen zien wanneer een gezicht door AI gecreëerd is en naarmate de technologie blijft doorontwikkelen zal dit alleen maar moeilijker worden. Deze toenemende onzekerheid rond de echtheid van online content heeft geleid tot de opkomst van een nieuw fenomeen — het zogenaamde ‘liar’s dividend’ of ‘leugenaarsdividend’. Hiermee kunnen publieke figuren twijfel zaaien over echte gebeurtenissen door te beweren dat er deepfakes in het spel zijn. Dat betekent een flinke klap voor politieke verantwoording, een toename van complotdenken en een algehele afname van het publieke vertrouwen in webcontent. Wanneer door AI gegenereerde content met social engineering-technieken gecombineerd wordt, kan dit zelfs worden gebruikt om phishingaanvallen te lanceren en toegang te krijgen tot gevoelige informatie, waardoor de stabiliteit van hele organisaties in gevaar komt. Sterker nog, het aantal phishingaanvallen is tussen 2021 en 2022 verdubbeld, een fenomeen dat te verklaren is door de introductie en explosieve groei van ChatGPT over dezelfde periode. Dus, hoewel generative AI misschien niet een directe existentiële bedreiging vormt voor de mensheid, zoals sommigen beweren, heeft de technologie het voor gewetenlozen individuen wél makkelijker gemaakt om cyberaanvallen te initiëren, nepnieuws te verspreiden en de reputatie van onschuldige mensen, organisaties, of zelfs hele landen te ondermijnen. En dat is nog lang niet alles.

“Binnen een jaar of twee kunnen we niet meer zien wat echt en wat nep is”. 

Gil Perry, CEO en medeoprichter van het Israëlische AI-bedrijf D-ID

Wat kan er allemaal misgaan?

Het in Londen gevestigde bedrijf Synthesia, dat gespecialiseerd is in generative AI, ontwikkelt AI-avatars voor allerlei zakelijke doeleinden. Denk aan training en ontwikkeling, maar bijvoorbeeld ook klantenservice, marketing en andere toepassingen. Met deze digitale ‘mensen’, getraind op video-opnames van professionele acteurs, kunnen bedrijven binnen een paar minuten zeer realistische videos creëren — en ook nog in maar liefst 120 talen en accenten. Het enige dat je hoeft te doen is de tekst invoeren die de AI-avatar moet zeggen, op genereren klikken en het wonder voltrekt zich voor je ogen. Op het platform zijn momenteel meer dan 140 avatars beschikbaar, met een uitgebreide variatie in genderidentiteiten, etniciteiten en kledingstijlen”. Hoewel het bedrijf expliciet verbiedt om de technologie voor politieke, seksuele, persoonlijke, criminele of discriminerende content te gebruiken, hebben kwaadwillenden inmiddels herhaaldelijk manieren gevonden om deze restricties te omzeilen. Zo zijn de avatars al ingezet om desinformatie te verspreiden en zelfs in complexe crypto-oplichtingszaken gebruikt. Synthesia heeft niet alleen verantwoordelijkheid genomen voor deze video’s maar ook extra maatregelen geïmplementeerd om misbruik van zijn platform te voorkomen. Zo beperkt het bedrijf het creëren van nieuwscontent tot zakelijke accounts en heeft het het aantal contentmoderators verviervoudigd. “Contentmoderatie werd traditioneel op het punt van distributie gedaan. Zo heeft Microsoft Office je bijvoorbeeld nooit belet om een PowerPoint over verschrikkelijke dingen te maken of vreselijke manifesten in Microsoft Word te schrijven”, zegt Victor Riparbelli, de CEO van Synthesia. “Maar omdat deze technologieën zo krachtig zijn, zien we nu dat moderatie steeds meer verschuift naar het punt van creatie — en dat is ook wat wij doen”.

Hoewel de technologie nog bepaalde beperkingen heeft die het relatief makkelijk maken om te zien dat je met een kunstmatige creatie te maken hebt — de avatars van Synthesia kunnen bijvoorbeeld hun armen niet bewegen — is het slechts een kwestie van tijd voordat onderscheid tussen echt en nep niet meer te maken is. “Binnen een jaar of twee kunnen we niet meer zien wat echt en wat nep is”, zegt Gil Perry, CEO en medeoprichter van het Israëlische AI-bedrijf D-ID. Dit kan tot een sterke stijging van online wangedrag leiden, waarbij internetcriminelen geavanceerde AI-technieken inzetten om nepfoto’s of -video’s van mensen te creeren. Dit soort content toont slachtoffers bijvoorbeeld in verzonnen en beschamende situaties en wordt vaak gebruikt om mensen te treiteren, vernederen of zelfs te chanteren. Als gevolg van de snelle ontwikkelingen in voice cloning-technologie verwachten experts bovendien een aanzienlijke toename in identiteitsdiefstal en fraude. Met deze tech kun je met behulp van een kort audiofragment iemands stem zeer overtuigend nabootsen. Hetzelfde geldt voor door AI gegenereerde videocontent, die zo realistisch zal worden dat we onze ogen letterlijk niet meer kunnen geloven. Als reactie op deze groeiende dreiging heeft een groep prominente techexperts, geleid door Steve Wozniak en Elon Musk, een open brief gepubliceerd waarin dringend verzocht wordt alle grootschalige AI-experimenten minstens zes maanden stop te zetten. In de brief staat onder andere: “Moderne AI-systemen benaderen algemene taken nu bijna zoals mensen dat doen. Moeten we machines onze informatiekanalen wel laten overspoelen met propaganda en onwaarheden? Moeten we alle banen wel automatiseren, ook de banen waar wij als mens voldoening uit halen? Moeten we niet-menselijke breinen ontwikkelen die ons uiteindelijk in aantal, intelligentie en op andere vlakken overtreffen? Moeten we het risico lopen de controle over onze beschaving te verliezen?” Wat zegt het als juist de mensen die aan deze technologie werken er zo huiverig voor zijn? Zouden we hier niet serieus aandacht aan moeten besteden?

“Met generative AI kun je content creëren die net echt lijkt. Ook de avatars van gewone mensen kunnen door derden in allerlei soorten content geïntegreerd worden, zonder dat daar toestemming voor gegeven is. Dat is natuurlijk niet oké. We mogen de controle over onze identiteit, privacy of biometrische gegevens nooit verliezen”.

Thomas Graham, medeoprichter en CEO van Metaphysic

Hoe beschermen we onszelf?

De opkomst van generative AI is te vergelijken met het ontgrendelen van de doos van Pandora; staat deze eenmaal open, dan is het onmogelijk om de inhoud er weer in te stoppen. Maar we hebben nog wel steeds de mogelijkheid om de implementatie  van deze technologie vorm te geven. De uitdaging is om dit op een doordachte en verantwoorde manier te doen: dus de voordelen slim benutten en potentiële schade zoveel mogelijk beperken. Het zou buitengewoon naïef zijn om ervan uit te gaan dat AI-bedrijven zichzelf reguleren, aangezien ze keer op keer hebben laten zien dat winst, en niet het algemeen belang, hun voornaamste drijfveer is. Dus, wat kunnen we doen? De eerste stap is om cryptografische certificeringsnormen op te stellen waarmee we digitale content kunnen authenticeren. Sommige bedrijven hebben al concrete stappen in deze richting gezet, zoals blijkt uit de Coalition for Content Provenance and Authentication, die momenteel werkt aan standaarden voor de authenticatie van afbeeldingen, video’s, tekst en audio. Verschillende prominente bedrijven, waaronder techreuzen als Adobe, Microsoft en Intel, hebben zich al bij deze organisatie aangesloten. Vervolgens moeten we het publiek informeren over de mogelijke gevaren van het gebruik van generative AI. Tot slot moeten overheden wetten opstellen die onze rechten beschermen en individuen die generative AI voor kwaadaardige doeleinden gebruiken bestraffen. Op dit moment zijn er in 157 landen in de wereld wetten die de bescherming van gegevens en privacy reguleren. De GDPR van de EU en de Cybersecurity Law van China zijn daarvan de meest prominente voorbeelden, maar helaas lopen de regelgevingen rondom generative AI nog aanzienlijk achter op de huidige ontwikkelingssnelheid van de technologie. Alle ogen zijn nu gericht op de AI Act van de EU, die tot dusver een van de meest uitgebreide pogingen is om AI te reguleren en een aanzienlijke invloed kan hebben op wereldwijde normen rondom AI-regulatie.

In plaats van te wachten tot overheden stappen nemen om de veiligheid van hun burgers te waarborgen, hebben sommige bedrijven besloten om het heft in eigen handen te nemen en mensen de middelen te bieden om zelf hun identiteiten te beschermen. Zo heeft het AI-softwarebedrijf Metaphysic, dat wereldwijde aandacht kreeg door in 2021 een enorm realistische deepfake van Tom Cruise te posten, onlangs ’s werelds eerste platform voor de bescherming van ‘digitale gelijkenissen’ gelanceerd. Via dit platform kun je veilig je persoonlijke biometrische gegevens creëren, opslaan en beschermen en zelf bepalen hoe derden deze vervolgens kunnen gebruiken. “Met generative AI kun je content creëren die net echt lijkt. Ook de avatars van gewone mensen kunnen door derden in allerlei soorten content geïntegreerd worden, zonder dat daar toestemming voor gegeven is. Dat is natuurlijk niet oké. We mogen de controle over onze identiteit, privacy of biometrische gegevens nooit verliezen”, vertelt Thomas Graham, medeoprichter en CEO van Metaphysic. Hij was tevens de eerste persoon die zijn ‘AI-gelijkenis’ voor auteursrechtelijke registratie indiende bij de Amerikaanse Copyright Office. Om je ‘AI-gelijkenis’ te creëren, moet je eerst een video van drie minuten van jezelf opnemen, waarna de AI-tools van Metaphysic een hyperrealistische avatar van je maken. Verschillende bekende personen hebben zich hier al voor aangemeld, waaronder acteurs Tom Hanks, Rita Wilson en Anne Hathaway, voormalig tennisster Maria Sharapova en socialite Paris Hilton. 

“Het maakt niet uit of je een acteur, artiest, sporter of gewoon een bezorgde burger bent, het is van cruciaal belang dat we allemaal actieve stappen ondernemen om onze persoonlijke gegevens te beschermen. Deze kunnen namelijk worden gebruikt om een perfecte AI-versie van je uiterlijk of (acteer- of sport-)prestaties te creëren”, voegt Graham toe. Dat gezegd hebbende, is het nog maar de vraag of het registreren van een auteursrecht voor jouw ‘AI-gelijkenis’ je daadwerkelijk rechten geeft en bescherming biedt tegen inbreuk door derden — en zo ja, in welke mate. En hoe zit het eigenlijk met content die door AI is gegenereerd? Kan dat auteursrechtelijk worden beschermd? En zo ja, wie bezit dan het auteursrecht? Deze en vele andere gerelateerde vragen onderstrepen de behoefte aan duidelijke, allesomvattende regulering op dit gebied. Het is dan ook belangrijk dat beleidsmakers, juridische experts en AI-ontwikkelaars met elkaar samenwerken om inzicht te krijgen in deze complexe kwesties en dat de ontwikkelingen op het gebied van auteursrecht ook de realiteit van AI-ontwikkelingen weerspiegelen.

Een laatste overweging

De opkomst van generative AI markeert een cruciaal punt in de menselijke geschiedenis. We zijn op weg naar een toekomst waarin de grenzen tussen realiteit en kunstmatigheid steeds verder vervagen. De ontwikkelingskoers van generative AI zal onvermijdelijk in elk aspect van ons leven gaan doordringen. Er is geen twijfel dat de potentiële toepassingen van generative AI veelbelovend zijn en dat ze in allerlei uiteenlopende sectoren ongekende mogelijkheden voor innovatie bieden. Denk aan het verbeteren van bedrijfsprocessen, het bevorderen van creatieve expressie en nog veel meer. Maar de implicaties van deze opkomende technologie — zoals die op het gebied van ethiek, ons sociale leven en de algehele veiligheid — moeten ook zorgvuldig overwogen worden. Het gemak waarmee geavanceerde, door AI gegenereerde content kan worden gemanipuleerd, vormt een serieus en actueel gevaar en verhoogt het risico op cyberaanvallen en de verspreiding van desinformatie. Bovendien ondermijnt het het vertrouwen in digitale content. Een proactieve aanpak is dus noodzakelijk en samenwerking tussen techbedrijven, overheden en regelgevende instanties is essentieel voor het creëren van robuuste regelgeving die ons beschermt tegen kwaadwillend gebruik van deze technologie en die ervoor zorgt dat onze individuele rechten en privacy behouden blijven. We kunnen het volledige potentieel van deze baanbrekende technologie absoluut benutten om de samenleving te verbeteren en onszelf tegen mogelijke negatieve gevolgen te beschermen, maar alleen als we daadwerkelijk samenwerken en zorgvuldig te werk gaan.

Share via
Copy link