De donkere kant van AI: 10 dreigingen waar we onze ogen niet voor mogen sluiten

Foto van Richard van Hooijdonk
Richard van Hooijdonk
De snelle vooruitgang in kunstmatige intelligentie verandert onze wereld in hoog tempo. Maar de belangrijkste vraag blijft: is dit wel allemaal vooruitgang, of brengen we onszelf juist steeds meer in gevaar?
  • Een desinformatieoffensief
  • De kostbare gevolgen van AI-hallucinaties
  • In de val van de machine
  • Het verlies van vrije wil
  • Datagestuurde discriminatie
  • Het einde van menselijke arbeid
  • Democratie op het spel
  • Evolutie op een dwaalspoor
  • Een wereld vol risico’s
  • Een existentiële bedreiging voor de mensheid

Samenvatting

Kunstmatige intelligentie is niet meer uit ons leven weg te denken. Het regelt alles in onze slimme huizen, zorgt dat we veilig en efficiënt op ons werk komen en helpt ons zelfs met steeds meer dagelijkse taken. Maar in ons verlangen om ons leven makkelijker en comfortabeler te maken, zien we misschien hele belangrijke dingen over het hoofd. Worden we bijvoorbeeld niet veel te afhankelijk van AI? En wat kan dat voor ernstige gevolgen hebben?

  • AI maakt het makkelijker om nepnieuws en desinformatie te verspreiden. Met één klik kunnen mensen realistische beelden, video’s en audio maken.
  • Omdat AI steeds meer op mensen gaat lijken, zouden mensen ongezonde emotionele banden met machines kunnen ontwikkelen en daardoor echte menselijke interactie steeds meer uit de weg gaan.
  • Onze toenemende afhankelijkheid van AI kan invloed hebben op onze cognitieve, sociale en fysieke vaardigheden, en misschien zelfs de richting van de menselijke evolutie bepalen.
  • Het gebrek aan diversiteit in de data waarmee AI wordt getraind, kan bestaande ongelijkheden verergeren en leiden tot discriminatie van bepaalde groepen.
  • Verdere ontwikkelingen in AI kunnen voor nieuwe gevaren zorgen en zelfs de toekomst van de mensheid in gevaar brengen.
  • AI kan de machtsverhoudingen tussen landen drastisch veranderen, wat een grote impact kan hebben op de toekomst van democratie.

Het enige dat we nu zeker weten, is dat AI alleen maar slimmer en krachtiger zal worden. De keuzes die we vandaag maken over hoe we met deze technologie omgaan, zullen een enorme impact hebben op de wereld die we voor toekomstige generaties achterlaten. Als we het goed aanpakken, kan AI ons helpen een toekomst te creëren die onze verbeelding te boven gaat. Maar als we de verkeerde keuzes maken… tja, je kunt je vast wel voorstellen hoe dat dan zou kunnen aflopen.

Weet je nog wat het ‘engste’ aan technologie was? Dat je computer kon crashen vlak voordat je dat belangrijke document had opgeslagen! Wat is er sindsdien veel veranderd. Tegenwoordig hebben we te maken met veel serieuzere risico’s, en die komen vooral door onze steeds grotere afhankelijkheid van één specifieke technologie: kunstmatige intelligentie (AI).

AI kon vroeger alleen simpele taken uitvoeren, maar in de loop der jaren is deze technologie enorm in kracht en complexiteit gegroeid. Het is inmiddels bijna overal in ons dagelijks leven verweven. Van de virtuele assistenten op onze smartphones tot de algoritmes die bepalen wat we op social media te zien krijgen. Maar het gebruik van AI brengt ook risico’s met zich mee en nu generatieve AI inmiddels voor iedereen beschikbaar is, zijn die risico’s alleen maar groter geworden.

Experts waarschuwen ons al jaren dat deze technologie, bedoeld of onbedoeld, enorme problemen kan veroorzaken en bijvoorbeeld als autonoom wapen kan worden ingezet. Sommigen gaan zelfs zover dat ze AI een existentiële bedreiging voor de mensheid noemen. Maar we zijn er natuurlijk niet op uit om angst te zaaien of je te vertellen dat je je gadgets meteen het raam uit moet gooien – nog niet, ten minste. Wat we wel graag willen is jou verschillende kanten laten zien, zodat je op basis van de juiste informatie kunt besluiten of je AI in je leven wilt toelaten.

10. Een desinformatieoffensief

AI kan steeds realistischere beelden, video’s en audio creëren, waardoor we binnenkort misschien gaan twijfelen aan wat we met onze eigen ogen en oren waarnemen. Hoe weten we dan nog wat echt is?

Een van de grootste zorgen rondom de opmars van AI is dat het de verspreiding van desinformatie makkelijker maakt. Naarmate door AI gegenereerde beelden, video’s en audio steeds realistischer worden, wordt het voor ons steeds lastiger om feit van fictie te onderscheiden. Straks staat er misschien wel een onzichtbaar vraagteken bij elk stukje informatie en gaan we zelfs aan de meest betrouwbare bronnen twijfelen. Want als je je eigen ogen en oren niet meer kunt vertrouwen, wat dan nog wel?

Je hebt inmiddels vast wel gehoord hoe AI is ingezet om verkiezingsuitslagen te beïnvloeden, vooral in de VS en Frankrijk. Maar dat is nog maar het topje van de ijsberg: generatieve AI kan ook in de zakenwereld enorme problemen veroorzaken. Zo kan de technologie bijvoorbeeld worden gebruikt om een overtuigende video te maken van een CEO die ongepaste opmerkingen maakt. Of denk aan valse financiële rapporten of nepberichten over teruggeroepen producten, waardoor de aandelen van een bedrijf een flinke klap kunnen krijgen. Dit soort nepinformatie kan zich vooral via social media razendsnel verspreiden en het imago van een bedrijf behoorlijk beschadigen.

Maar hoe kunnen we dit probleem nu het beste aanpakken? Ten eerste moeten we betere tools creëren die mee kunnen schakelen met de snelle ontwikkelingen van generatieve AI en die AI-gegenereerde content kunnen blijven herkennen. We moeten ook meer aandacht besteden aan mediageletterdheid, en dat al vanaf jonge leeftijd, zodat mensen hun hele leven lang goed geïnformeerd blijven. Slimme regelgeving kan ook helpen. Denk aan het verplicht stellen van duidelijke labels voor AI-gegenereerde content en wetten die mensen verantwoordelijk houden voor het misbruik van AI.

  • Generatieve AI maakt het makkelijker om desinformatie te verspreiden.
  • De technologie is al ingezet om verkiezingsuitslagen wereldwijd te beïnvloeden.
  • In de zakenwereld kan AI gebruikt worden om bijvoorbeeld valse financiële rapporten te maken, waardoor bedrijven flink in de problemen kunnen raken.
  • Met stappen als het ontwikkelen van betere AI-detectietools, investeren in mediageletterdheid en doordachte regelgeving kunnen we deze risico’s verkleinen.

9.  De kostbare gevolgen van AI-hallucinaties

AI geeft regelmatig onjuiste antwoorden, wat het vertrouwen in AI-gegenereerde content moeilijk maakt en zelfs ernstige gevolgen kan hebben in de echte wereld.

Iedereen die generatieve AI gebruikt, merkt ongetwijfeld dat het soms output genereert die gewoon niet klopt. Deze feitelijke onjuistheden, ook wel ‘hallucinaties’ genoemd, maken het lastig om AI-gegenereerde content te vertrouwen. Ondanks deze problemen kunnen de meeste bedrijven niet wachten om hun eigen chatbots op de markt te brengen, omdat iedereen natuurlijk wil meeprofiteren van de hype rond generatieve AI. Maar door deze haast lukt het vaak niet om het hallucinatieprobleem goed aan te pakken. En soms levert dat grappige resultaten op, maar in andere gevallen kunnen de gevolgen een stuk ernstiger zijn.

Neem bijvoorbeeld de DPD-chatbotblunder van januari 2024. Toen een klant informatie wilde over een zoekgeraakt pakket, maar geen bevredigend antwoord kreeg, besloot hij de gebreken van de chatbot publiekelijk bekend te maken en er een geintje mee uit te halen. Na de bot een aantal slim bedachte vragen gesteld te hebben, had de klant het voor elkaar dat de chatbot hem uitschold, zichzelf ‘waardeloos’ noemde en zelfs kritiek uitte op het bedrijf waar de bot notabene zelf voor werkte. Hoewel DPD snel zijn excuses aanbood voor de fout en de chatbot offline haalde om het probleem op te lossen, liet het incident wel duidelijk zien hoe AI soms ongepaste of beledigende reacties kan geven als zo’n systeem niet goed gecorrigeerd of beperkt wordt.

Maar niet alle AI-hallucinaties zijn onschuldig of grappig. Neem bijvoorbeeld het incident in februari 2024 met de chatbot van Air Canada. Een klant die een familielid had verloren vroeg naar de rouwkorting van de luchtvaartmaatschappij. Air Canada vertelde de man dat hij een ticket tegen de normale prijs kon kopen en vervolgens binnen 90 dagen korting kon aanvragen, terwijl de werkelijke voorwaarden anders waren. Het verzoek had namelijk juist vóór de vlucht ingediend moeten worden. Toen Air Canada weigerde de man terug te betalen, besloot de klant de zaak voor te leggen aan een geschillencommissie. Die oordeelde uiteindelijk dat de luchtvaartmaatschappij de man ruim $800 aan schadevergoeding moest betalen.

Het meest beruchte voorbeeld is misschien wel de fout die Google Bard maakte over de James Webb-ruimtetelescoop. Op de vraag welke ontdekkingen de telescoop had gedaan, antwoordde Bard namelijk dat ‘hij’ de eerste foto’s van exoplaneten buiten ons zonnestelsel had gemaakt. Maar dat was niet waar: die foto’s waren al bijna twintig jaar eerder genomen, ruim voordat de Webb-telescoop werd gelanceerd. Toen dit nieuws naar buiten kwam, maakten investeerders zich niet alleen zorgen over reputatieschade, maar ook over Google’s concurrentiepositie in de AI-markt. Hierdoor ontstond een forse daling van de aandelenkoers. Uiteindelijk kostte de fout het moederbedrijf van Google, Alphabet, maar liefst $100 miljard – een behoorlijk kostbare hallucinatie!

Om dit soort risico’s te verkleinen, moeten we betere controle- en verificatieprotocollen in AI-systemen inbouwen. Als we de gegenereerde content kunnen vergelijken met betrouwbare bronnen en alerts kunnen toevoegen bij mogelijk onjuiste informatie, kunnen we hallucinaties opsporen en corrigeren voordat ze problemen veroorzaken. Daarnaast moeten we transparanter zijn over de beperkingen van AI. Bedrijven zouden een disclaimer of score kunnen toevoegen om aan te geven hoe betrouwbaar de antwoorden zijn, in plaats van de indruk te wekken dat de bots altijd de juiste informatie geven.

  • De grootste beperking van generatieve AI is de neiging om foutieve of misleidende informatie te produceren, ook wel ‘hallucineren’ genoemd.
  • Het genereren van feitelijk onjuiste informatie en dit als ‘de waarheid’ presenteren kan serieuze gevolgen hebben voor bedrijven in de echte wereld.
  • In februari 2024 beweerde Google’s AI-tool Bard ten onrechte dat de James Webb-ruimtetelescoop de eerste exoplaneten buiten ons zonnestelsel had ontdekt, terwijl dat bijna twintig jaar eerder al was gebeurd. Dit kostte het moederbedrijf Alphabet uiteindelijk US$100 miljard.
  • Om hallucinaties te herkennen en te corrigeren voordat ze problemen veroorzaken, moeten we betere controle- en verificatieprotocollen in AI-systemen inbouwen.

8. In de val van de machine

Steeds meer mensen raken gehecht aan hun AI-assistenten, en dat kan enorme gevolgen hebben voor hun sociale vaardigheden en mentale gezondheid.

Naarmate AI steeds menselijker wordt, kunnen gebruikers er zelfs emotioneel afhankelijk van worden. En dit is echt geen verre toekomst; er zijn al genoeg verhalen van mensen die een hechte band opbouwen met hun chatbot, of er zelfs verliefd op worden.

Dit fenomeen is natuurlijk niet nieuw. Herinner je de Tamagotchi-rage uit de jaren 90 nog? Miljoenen mensen overal ter wereld waren volledig in de ban van deze eivormige digitale huisdiertjes en deden er alles aan om ze ‘in leven’ te houden. Nu, dankzij AI, worden in dit soort scenario’s nog veel meer stappen gezet. Neem Loverse, bijvoorbeeld, een app die vooral in Japan enorm populair aan het worden is. De AI-avatars in deze app zijn helemaal op het profiel en de persoonlijkheid van de gebruikers afgestemd. Sommige gebruikers zijn zo verknocht geraakt aan hun digitale metgezellen dat ze liever met hun avatars zouden trouwen dan met iemand uit het echte leven.

Hoewel dit op het eerste gezicht misschien onschuldig of zelfs grappig lijkt, is het natuurlijk best problematisch. Hoe meer tijd, energie en emotie mensen in deze kunstmatige relaties steken, hoe minder er voor echt menselijk contact overblijft. Dit heeft enorme gevolgen voor onze mentale gezondheid. We zijn immers sociale wezens, en echte menselijke verbindingen zijn essentieel voor ons psychologische welzijn. Zonder die verbindingen verdwijnen empathie en sociale vaardigheden steeds meer naar de achtergrond. En die worden er niet beter op als je al je tijd en energie besteedt aan een relatie met een machine – die het bovendien altijd met je eens is en het je alleen maar naar de zin wil maken.

En dat zijn niet de enige risico’s. Hoe meer we wennen aan AI’s die precies reageren zoals we willen, hoe groter de kans dat we denken dat ze ook op andere gebieden van alles kunnen. Dat kan zorgen voor een vals gevoel van vertrouwen, waar slimme bedrijven misbruik van kunnen maken om ons te manipuleren of misleiden. Om dat te voorkomen, moeten we duidelijke regels opstellen over hoe AI met ons omgaat, vooral op het gebied van gevoelige onderwerpen. Dit zou kunnen betekenen dat er verplichte meldingen komen om je te waarschuwen wanneer je met een AI praat en niet met een echt persoon. Maar het allerbelangrijkste is dat we mensen, en vooral jongere generaties, leren hoe belangrijk het is om echte, offline relaties te onderhouden – en niet alleen digitale.

  • Naarmate AI steeds realistischer en menselijker wordt, wordt ook het risico dat we er emotioneel afhankelijk van raken groter.
  • In Japan raken steeds meer mensen gehecht aan AI-avatars, en sommigen gaan zelfs zo ver dat ze ermee trouwen.
  • Als we steeds meer de voorkeur geven aan kunstmatige relaties, kan dat negatieve gevolgen hebben voor onze sociale vaardigheden, mentale gezondheid en welzijn.
  • Het is belangrijk dat we duidelijke regels opstellen voor de interactie tussen mens en AI, vooral als het gaat om gevoelige onderwerpen.

7. Het verlies van vrije wil

We laten steeds meer taken over aan AI, maar hoe zit dat straks met onze vrije wil?

Je vindt de manier waarop AI onze persoonlijke relaties verandert waarschijnlijk al griezelig, maar wist je dat de invloed van AI nog veel verder reikt? AI stuurt steeds vaker onze keuzes, van wat we kijken op streamingplatforms tot wat we online kopen. Natuurlijk is het handig om gepersonaliseerde aanbevelingen te krijgen. Maar als we te afhankelijk worden van AI, raken we langzaam maar zeker steeds meer onze kritische denkvaardigheden en probleemoplossend vermogen kwijt.

Denk hier maar eens goed over na: als we onze keuzes steeds meer overlaten aan algoritmes, worden we ook minder goed in het afwegen van opties, nadenken over gevolgen en zelf weloverwogen beslissingen nemen. Uiteindelijk zouden we daardoor in een situatie terecht kunnen komen dat we onze vrije wil verliezen. Vandaag vragen we nog “Wat moet ik kijken?”, maar morgen kan het al zijn “Welke carrière moet ik kiezen?” of “Met wie moet ik daten?” Voor we het weten, worden onze levens volledig door algoritmes – in plaats van door onze eigen keuzes – bepaald.

Dat betekent natuurlijk niet dat AI helemaal geen rol zou moeten spelen in onze beslissingen. Op veel gebieden, zoals complexe data-analyse of medische diagnoses, kan de superieure rekenkracht en patroonherkenning van AI juist ontzettend waardevol zijn. Het gaat erom dat we een goede balans moeten vinden tussen beslissingen die we nemen op basis van AI-aanbevelingen en die we nemen met behulp van menselijke input, zodat we de risico’s zoveel mogelijk beperken.

Een goede manier om die balans te vinden is door er altijd voor te zorgen dat er mensen bij betrokken blijven. In plaats van beslissingen volledig te automatiseren, zouden we bij voorkeur naar een toekomst moeten waar AI ons verschillende opties geeft die zorgvuldig op onze behoeften en situatie zijn afgestemd. Maar we moeten ervoor zorgen dat we nog altijd zelf de uiteindelijke keuze maken.

  • AI heeft een steeds grotere invloed op de keuzes die we in ons dagelijkse leven maken.
  • Als we te afhankelijk worden van AI, lopen we het risico dat onze kritische denk- en probleemoplossende vaardigheden achteruitgaan.
  • Er is zelfs een kans dat we uiteindelijk onze vrije wil opofferen.
  • Om dit te voorkomen, moeten we een goede balans vinden tussen AI en menselijke input en ervoor zorgen dat er altijd een mens bij beslissingen betrokken blijft.

6. Datagestuurde discriminatie

De data die wordt gebruikt om AI-systemen te trainen, weerspiegelt vaak niet de diversiteit van de hele bevolking, wat kan leiden tot vooroordelen en discriminatie.

De output van AI is volledig afhankelijk van de informatie waarmee deze systemen getraind worden. Als die data de hele bevolking niet goed vertegenwoordigt, kunnen de beslissingen van AI bevooroordeeld of zelfs discriminerend zijn. En dat gaat vaak juist ten koste van mensen die al gemarginaliseerd of achtergesteld zijn. Denk bijvoorbeeld aan die schokkende ontdekking dat sommige zelfrijdende auto’s voetgangers met een donkere huidskleur vaker zouden aanrijden omdat ze hen niet als mensen herkennen. Dit was dus een gevolg van het feit dat het systeem niet op datasets met voldoende diversiteit was getraind. Ook gezichtsherkenningsalgoritmes maken vaker fouten als het gaat om mensen van kleur. Zo worden deze mensen ten onrechte van misdaden beschuldigd, terwijl dit bij witte mensen veel minder gebeurt.

We kennen allemaal de verschrikkingen rondom de Nederlandse toeslagenaffaire. In dit geval leidde een algoritme van de Belastingdienst ertoe dat duizenden gezinnen, vooral die met een laag inkomen, ten onrechte van fraude met kinderopvangtoeslag werden beschuldigd. Het gevolg daarvan was dat veel van deze gezinnen enorme bedragen moesten terugbetalen, waardoor sommigen nog verder in de financiële problemen raakten. In een aantal gevallen werden zelfs kinderen uit huis geplaatst.

De vraag is natuurlijk wat we hieraan kunnen doen. Allereerst moeten we flink investeren in het ontwikkelen van onbevooroordeelde algoritmes en ervoor zorgen dat trainingsdata echt de diversiteit van de samenleving weerspiegelt. Daarnaast hebben we sterkere regelgeving nodig. Net zoals we veiligheidsnormen hebben voor fysieke producten, moeten er strikte richtlijnen komen voor AI-systemen, vooral in cruciale sectoren als de rechtshandhaving, gezondheidszorg en sociale dienstverlening. Misschien is het ook een goed idee om ethici bij elke stap van het ontwerpproces van AI te betrekken. Iemand die steeds de vraag stelt: “Maar is dit wel eerlijk?” kan ervoor zorgen dat mogelijke vooroordelen worden opgemerkt voordat ze in het systeem terechtkomen.

  • Een AI die getraind is op data die niet representatief is voor de hele bevolking, zal vaak bevooroordeelde of discriminerende beslissingen nemen.
  • In 2019 ontdekten onderzoekers dat sommige zelfrijdende auto’s voetgangers met een donkere huidskleur minder goed herkenden, wat leidde tot een groter risico op aanrijdingen.
  • Bij de Nederlandse toeslagenaffaire werden duizenden gezinnen, vooral uit lage-inkomensgroepen, onterecht beschuldigd van fraude door een fout in een algoritme.
  • Om bias te bestrijden, moeten we investeren in het creëren van trainingsdata met meer diversiteit en ethici bij het ontwerpproces betrekken.

5. Het einde van menselijke arbeid

Steeds meer banen worden door AI overgenomen. Maar hoe gaan we in de toekomst dan ons geld verdienen?

Omdat steeds meer taken door AI worden overgenomen is er terecht bezorgdheid over hoe we in de toekomst nog aan een inkomen komen. Vanuit economisch oogpunt snap je het natuurlijk wel – waarom zouden bedrijven nog mensen inhuren als AI het werk sneller, goedkoper en vaak zelfs beter kan uitvoeren?

n dit is zeker geen speculatie. Uit een rapport van Goldman Sachs uit 2023 blijkt namelijk dat AI wereldwijd maar liefst 300 miljoen fulltimebanen zou kunnen overnemen. Vooral mensen in laaggeschoold fysiek werk en administratieve functies lopen groot risico. Veel van hen hebben nu al te maken met stagnerende lonen en onzekerheid op de arbeidsmarkt. Naarmate AI steeds meer routinetaken als data-invoer, lopendebandwerk en eenvoudige klantenservicewerkzaamheden overneemt, komen steeds meer mensen zonder werk te zitten. Dit kan bestaande ongelijkheden verergeren en tot toenemende sociale onrust leiden.

Moeten we nu in paniek raken? Nou, niet echt, want we hebben al vaker met soortgelijke scenario’s te maken gehad. Door de geschiedenis heen hebben mensen als gevolg van technologische ontwikkelingen van werk moeten veranderen. Denk aan de uitvinding van de drukpers, de introductie van de auto en de komst van de computer. Dit soort veranderingen zorgden op de korte termijn wel voor vervelende situaties, maar hebben op de lange termijn juist tot meer innovatie en meer welvaart geleid. Dus ja, we verwachten zeker dat AI veel taken zal overnemen, maar ook dat er door deze technologie juist weer veel nieuwe banen zullen ontstaan – misschien zelfs meer dan er verdwijnen.

Nu onze banen gaan veranderen, moeten ook onze onderwijssystemen beter gaan meeschakelen. Er moet meer nadruk komen op vaardigheden als kritisch denken, creativiteit en emotionele intelligentie – precies die eigenschappen die ons van machines onderscheiden. Daarnaast moeten we misschien nadenken over ingrijpender beleidsmaatregelen, zoals een basisinkomen voor iedereen. Dit zou een bestaansminimum garanderen voor alle burgers, ongeacht of ze werk hebben. Hoewel het onwaarschijnlijk is dat AI écht alle banen overneemt, kan zo’n basisinkomen als vangnet dienen voor die onwaarschijnlijke, maar niet ondenkbare situatie. Het is als een verzekering voor de hele beroepsbevolking: hopelijk hebben we het nooit nodig, maar het is goed om achter de hand te hebben.

  • Naarmate we steeds meer taken aan AI overlaten, zullen veel mensen misschien zonder werk komen te zitten.
  • Goldman Sachs voorspelt dat AI wereldwijd wel 300 miljoen fulltimebanen zou kunnen overnemen.
  • Sommige experts denken dat AI ook veel nieuwe banen zal creëren, waarvoor werknemers nieuwe vaardigheden zullen moeten ontwikkelen.
  • Hoewel het onwaarschijnlijk is dat AI alle banen overneemt, zou een basisinkomen kunnen dienen als vangnet, voor het geval dit toch gebeurt.

4. Democratie op het spel

Generatieve AI kan het machtsevenwicht verschuiven naar landen die vooroplopen in de ontwikkeling van deze technologie.

Naarmate generatieve AI zich in een razend tempo blijft ontwikkelen, wordt steeds duidelijker dat deze technologie grote gevolgen kan hebben voor het wereldwijde machtsevenwicht. Landen die niet investeren in de ontwikkeling van generatieve AI lopen het risico achter te raken op landen die dat wel doen. Dit kan leiden tot ingrijpende verschuivingen in economische, militaire en culturele invloed. Vooral China is inmiddels een grote speler op het gebied van verschillende belangrijke onderdelen van AI-onderzoek en -ontwikkeling. Het land heeft al grote doorbraken bereikt op het gebied van gezichtsherkenning, natuurlijke taalverwerking en zelfrijdende voertuigen – mede dankzij enorme hoeveelheden data, sterke overheidssteun en een bloeiende technologiesector.

China richt zich nu op generatieve AI en wil ook op dit gebied de leiding nemen. Maar wat zou het betekenen als ze dat voor elkaar krijgen? Allereerst kan dit voor Chinese bedrijven in allerlei sectoren enorme voordelen opleveren. Daarnaast kan China de technologie inzetten om overtuigende content in meerdere talen te creëren. Daarmee kan het land bepaalde verhalen wereldwijd zó sturen dat ze de Chinese belangen ondersteunen en versterken.

Wat misschien nog het meest zorgwekkend is, is dat China zijn leiderschap in generatieve AI zou kunnen gebruiken om digitaal autoritarisme als het ware naar andere landen te ‘exporteren’. Als andere regeringen toegang krijgen tot China’s AI-tools en platforms, zouden ze China’s voorbeeld kunnen volgen en deze technologie inzetten om hun bevolking te monitoren, kritiek te onderdrukken en het publieke debat te sturen. Dit zou grote gevolgen kunnen hebben voor privacy, individuele vrijheden en de toekomst van democratie wereldwijd.

Om deze risico’s te beperken en ervoor te zorgen dat iedereen van de voordelen van generatieve AI kan profiteren, moeten andere landen actief aan de slag om hun eigen capaciteiten op dit gebied te versterken. Dit betekent flinke investeringen in onderzoek en ontwikkeling, maar ook samenwerking tussen overheid, bedrijven en universiteiten. Landen die dezelfde waarden delen, zouden samen moeten werken aan AI-ontwikkeling, waarbij ze hun middelen en kennis bundelen om een tegenwicht te vormen tegen deze grote geopolitieke verschuivingen.

  • Generatieve AI kan het wereldwijde machtsevenwicht ingrijpend veranderen, waardoor verschuivingen ontstaan in economische, militaire en culturele invloed.
  • China is al een grote speler op veel gebieden van AI-onderzoek en -ontwikkeling en investeert nu ook zwaar in generatieve AI.
  • Als China wereldleider wordt op het gebied van generatieve AI, kan het die positie gebruiken om digitaal autoritarisme naar andere landen te ‘exporteren’, wat grote gevolgen zou hebben voor de toekomst van democratie.
  • Om ervoor te zorgen dat iedereen van de voordelen van generatieve AI kan profiteren, moeten andere landen meer in deze technologie investeren en, waar nodig, hun middelen en kennis bundelen.

3. Evolutie op een dwaalspoor

Onze groeiende afhankelijkheid van AI kan de manier waarop we als mensheid evolueren veranderen – en dat is misschien niet altijd in ons voordeel.

AI kan ons natuurlijk op allerlei manieren helpen en onze capaciteiten verbeteren. Maar het kan ook onverwachte gevolgen hebben die invloed hebben op hoe we als mensen verder ontwikkelen. We hebben het al gehad over hoe onze denkvaardigheden door de afhankelijkheid van AI achteruit kunnen gaan. Maar het is niet alleen ons brein dat hierdoor kan veranderen – hetzelfde kan gebeuren met ons lichaam.

Als AI-systemen het grootste deel van de fysieke arbeid overnemen, hoeven mensen zich lichamelijk steeds minder in te spannen. Dat kan weer leiden tot allerlei gezondheidsproblemen. Denk aan meer gevallen van obesitas, hart- en vaatziekten en problemen met spieren en gewrichten. We zien dit nu al gebeuren doordat steeds meer mensen werk doen waarbij ze de hele dag achter een bureau zitten. Op de lange termijn kunnen deze veranderingen zelfs onze fysieke verschijning en mogelijkheden beïnvloeden. Hoe meer tijd we met schermen en virtuele interfaces doorbrengen, hoe meer invloed dat heeft op onze lichaamshouding, gezichtsvermogen en (fijne) motoriek.

Naast de biologische gevolgen kan AI ook een grote invloed hebben op onze cultuur en de samenleving. Naarmate AI-systemen steeds meer bepalen welke informatie we online zien, zou dat kunnen leiden tot een soort wereldwijde eenheidsworst. Dit culturele ‘afvlakken’ kan ervoor zorgen dat we een hoop diversiteit kwijtraken, terwijl dat juist altijd een bron is geweest van menselijke innovatie en veerkracht. Lokale tradities, talen en manieren van denken zouden langzaam kunnen verdwijnen, omdat AI-systemen – die vaak met specifieke culturele vooroordelen ontwikkeld worden – onze culturele ervaringen steeds meer gaan sturen.

Gelukkig kunnen we verschillende dingen doen om dit proces de goede kant op te sturen, zodat AI ons menselijker maakt in plaats van het tegenovergestelde. Het belangrijkste is dat we AI-systemen bouwen die ons helpen en ondersteunen, in plaats van ons steeds meer vervangen. Om te voorkomen dat we onze culturele diversiteit kwijtraken, moeten we ervoor zorgen dat verschillende perspectieven en ervaringen in de ontwikkeling van AI juist specifiek worden meegenomen. Dit kan bijvoorbeeld door meer diversiteit en gelijkheid te stimuleren in de tech-industrie. Daarnaast is het belangrijk dat AI getraind wordt met data die de rijke en diverse human experience echt goed weerspiegelt.

  • Sommige experts maken zich zorgen dat onze groeiende afhankelijkheid van AI de evolutie van de mens op onverwachte manieren kan veranderen.
  • Naast een afname van onze denkvaardigheden, kan het uitbesteden van steeds meer fysieke taken ervoor zorgen dat we minder en minder bewegen, wat kan leiden tot allerlei gezondheidsproblemen. Dit heeft uiteindelijk zelfs invloed op hoe we er fysiek uitzien.
  • Als we onze ervaringen te veel door AI laten bepalen, lopen we het risico onze culturele diversiteit te verliezen en dat lokale tradities en talen verdwijnen.
  • Om ervoor te zorgen dat dit niet gebeurt, moeten we AI trainen met data die echt alle verschillende kanten van the human experience weerspiegelt.

2. Een wereld vol risico’s

AI kan nieuwe veiligheidsdreigingen veroorzaken – denk aan slimmere cyberaanvallen en autonome wapens.

Vind je het idee dat AI je baan overneemt al verontrustend? Er staat veel meer op het spel. Nieuwe ontwikkelingen in AI kunnen namelijk zorgen voor nieuwe bedreigingen waar we misschien nog helemaal niet aan gedacht hebben – laat staan erop voorbereid zijn. Naarmate AI slimmer wordt, krijgen ook hackers en andere kwaadwillenden namelijk steeds geavanceerdere tools in handen. Daarmee worden AI-gestuurde cyberaanvallen mogelijk die sneller, slimmer en moeilijker te stoppen zijn dan wat we tot nu toe hebben gezien. Stel je een virus voor dat meteen door beveiligingssystemen heen glipt, hoe snel je ze ook invoert.

Maar de risico’s van AI gaan veel verder dan alleen de digitale wereld. Denk bijvoorbeeld aan autonome wapens. Die roepen belangrijke vragen op over hoe oorlogen er in de toekomst uit gaan zien. Voorstanders zeggen dat het gebruik van dit soort wapens minder slachtoffers maakt, maar critici waarschuwen dat ze juist een nieuwe wapenwedloop kunnen starten en de drempel voor oorlog verlagen. En wat als we de controle over die systemen kwijtraken, of deze wapens in verkeerde handen vallen? Dat zou echt rampzalige gevolgen kunnen hebben.

Om dit risico te verkleinen, moeten we allereerst in AI-gestuurde verdedigingssystemen investeren die AI-bedreigingen kunnen opsporen en aanpakken – iets wat voor mensen nu al te complex is. Daarnaast moeten we bedrijven stimuleren om ethiek vanaf het begin in hun AI-systemen te verwerken, zodat de kans op misbruik kleiner wordt. En misschien wel het belangrijkste: mensen moeten altijd de controle houden over dit soort cruciale systemen; een machine zou nooit zelf over leven of dood mogen beslissen.

  • Generatieve AI kan nieuwe veiligheidsrisico’s veroorzaken, zowel online als in de echte wereld.
  • Hackers kunnen de technologie gebruiken om geavanceerdere cyberaanvallen uit te voeren, die moeilijker te ontdekken en te stoppen zijn.
  • Veel mensen maken zich zorgen dat de ontwikkeling van autonome wapens tot een nieuwe wapenwedloop zal leiden en de drempel voor gewapende conflicten verlaagt.
  • Om deze dreigingen te beperken, moeten we ethische AI-ontwikkeling stimuleren, AI-gestuurde verdedigingssystemen ontwikkelen en ervoor zorgen dat mensen altijd de controle over AI-systemen houden.

1. Een existentiële bedreiging voor de mensheid

Nu staat AI nog in dienst van de mens. Maar wat gebeurt er als deze technologie doelen ontwikkelt die niet langer aansluiten bij onze belangen of ons zelfs als een bedreiging gaat zien?

Laten we het nog heftiger maken. Naarmate AI slimmer en geavanceerder wordt, kan het doelen en prioriteiten ontwikkelen die niet overeenkomen met wat wij als mensen willen. Wat als een AI-systeem de mensheid gaat zien als een bedreiging voor zijn eigen doelen of voortbestaan? Wie kan ons garanderen dat het er dan niet alles aan zal doen om die bedreiging uit te schakelen?

Door de geschiedenis heen zijn er talloze soorten uitgestorven omdat er een roofdier was dat slimmer, sterker of gewoon beter aangepast was. Vaak waren wij, mensen, daar de oorzaak van – door te jagen, leefgebieden te vernietigen of invasieve soorten te introduceren. Het lijkt nu misschien nog wel onwaarschijnlijk, maar we kunnen niet uitsluiten dat ons door de introductie van AI hetzelfde te wachten staat in de toekomst. Als we niet goed oppassen met hoe we deze technologie ontwikkelen en gebruiken, zouden we zomaar een superintelligente AI kunnen maken die ons als een gevaar ziet en besluit om dat gevaar uit de weg te ruimen.

Uiteraard zijn dit extreme scenario’s en je hoeft echt nog niet te gaan hamsteren voor een robot-apocalyps. Maar het zijn wel mogelijkheden waar we rekening mee moeten houden en waar we ons op moeten voorbereiden. Om te voorkomen dat dit soort doemscenario’s werkelijkheid worden, moeten we AI-systemen bouwen met ingebouwde beperkingen, zodat ze niet tegen onze belangen in kunnen gaan of zich (bewust) tegen ons kunnen keren. Daarnaast moeten we blijven investeren in onderzoek naar AI-veiligheid en -controle, zodat we AI-systemen altijd kunnen uitschakelen of bijsturen als ze zich gevaarlijk of op (andere) onverwachte manieren gaan gedragen.

  • Hoe onwaarschijnlijk het ook klinkt, AI zou uiteindelijk doelen kunnen krijgen waarbij onze belangen geen prioriteit meer hebben.
  • Als AI de mensheid als een bedreiging gaat zien, zou het ons kunnen proberen uit te schakelen.
  • Om onszelf hiertegen te beschermen, moeten we AI-systemen ontwikkelen met ingebouwde beperkingen.
  • En als het toch misgaat, moeten we altijd de mogelijkheid hebben om de AI bij te sturen of uit te schakelen.

Leerpunten

Wat is nu de belangrijkste les? Is AI een vriend of vijand? Het antwoord is helaas niet zo simpel. Aan de ene kant kan AI ons helpen grote problemen in de wereld op te lossen en kansen bieden die we nu nog niet eens kunnen bedenken. Aan de andere kant kan AI ook op schadelijke manieren gebruikt worden, of op een manier die sommige groepen veel meer voordeel oplevert dan andere.

In dit artikel hebben we gekeken naar hoe AI de manier van werken verandert en veel banen mogelijk zal overnemen. Ook hebben we de ethische vragen rond AI-beslissingen en de uitdagingen van AI-vooroordelen besproken. Daarnaast hebben we nagedacht over hoe AI de evolutie van de mens kan beïnvloeden – niet alleen ons denkvermogen, maar ook ons uiterlijk en onze culturele normen.

Het goede nieuws is dat het nog niet te laat is om actie te ondernemen. We hebben nog steeds de controle en kunnen nu nog bepalen hoe dit zich verder ontwikkelt. Gaan wij de ontwikkeling van AI vormgeven, of laten wij onze ontwikkeling door AI vormgeven? Het antwoord op die vraag kan het verschil zijn tussen een toekomst waarin de mensheid floreert, of eentje waarin we hetzelfde lot ondergaan als talloze andere soorten die een sterkere tegenstander tegenkwamen.

Share via
Copy link