Als KI zelfbewust wordt, moeten machines dan ook (‘mensen’) rechten krijgen?

Foto van Richard van Hooijdonk
Richard van Hooijdonk
  • De fundamentele vraag is de menselijkheid, niet de intelligentie
  • Moet kunstmatige intelligentie tegen mensen worden beschermd?
  • Wat we eigenlijk moeten doen is mensen tegen zichzelf beschermen
  • Juridisch misbruik is een legitieme reden tot bezorgdheid

Naarmate kunstmatige intelligentie (KI) en robotica zich ontwikkelen, is het slechts een kwestie van tijd voordat machines bewustzijn ontwikkelen dat heel dichtbij dat van ons komt. In een groot aantal witteboorden banen, is KI bijvoorbeeld al in staat om zijn menselijke tegenhangers te overtreffen. Maar het feit dat robots en KI steeds slimmer worden, roept ethische vragen op over wat we in de toekomst onder persoonlijkheid, verantwoording en wettelijke rechten verstaan.

Wanneer verdient een machine het fundamentele respect dat normaal gesproken aan mensen voorbehouden is? Verschillende experts hebben hier hun mening over gegeven en wat ze te zeggen hebben, zou je kunnen verrassen.

De fundamentele kwestie is niet intelligentie maar menselijkheid

Kunstmatige intelligentie als IBM’s supercomputer Watson of de diagnostische algoritmen van Enlitic zijn al enorm slim. Het feit dat ze twee Jeopardy-kampioenen hebben verslagen, state-of-the-art medisch onderzoek kunnen begrijpen, of complexe ziekten kunnen diagnostiseren, zegt meer dan genoeg. Maar de echte vraag is niet of een machine net zo slim is als een mens, maar of het gekwalificeerd kan worden als wat ethici en filosofen een ‘persoon’ noemen. “De drie belangrijkste criteria voor persoonschap zijn zelfbewustzijn en het vermogen om pijn te ervaren en moreel verantwoordelijk te zijn”, vertelt James Hughes, socioloog, futurist en uitvoerend directeur van het Institute for Ethics and Emerging Technologies.

Een robot en een man, beide in pak, schudden elkaar de hand
“De drie belangrijkste criteria voor persoonschap zijn zelfbewustzijn en het vermogen om pijn te ervaren en moreel verantwoordelijk te zijn”, vertelt James Hughes, socioloog, futurist en uitvoerend directeur van het Institute for Ethics and Emerging Technologies.

Maar die criteria zijn echter geen kwestie van intelligentie. Een ‘zelfbewust’ stuk speelgoed dat pijn kan voelen – ongeacht zijn cognitieve vermogens – telt dan qua criteria voor persoonschap al mee. Maar voor Watson geldt dat weer niet. Pleo, daarentegen, een speelgoedrobot die eruit ziet als een dinosaurus, reageert op aanraking en interactie. En het heeft duidelijke voorkeuren: als je Pleo op zijn rug gooit, vraagt hij je om dat niet te doen en mekkert dan net zolang tot je hem weer rechtop zet. Kate Darling, een onderzoeker van het MIT Media Lab, deed nog niet zo lang geleden onderzoek naar het empatisch vermogen van verschillende mensen. Ze liet hen een beetje met de schattige robot spelen en daarna vroeg hij hen om de dino kapot te maken. Er waren er maar weinig die bereid waren om de dinorobot kapot te maken, ook al kan het geen pijn voelen en is het niet zelfbewust. Darling zegt: “Mensen leren onbewust om robots als levende wezens te behandelen, ook al weten ze op een bewust niveau, op een rationeel niveau, dat ze dat echt niet zijn”. Hoe meer ze op mensen lijken en hoe afhankelijker we van hen worden, hoe sterker de drang om hen te antropomorfiseren en hen een persoonlijkheid toe te schrijven”.

Maar wat gebeurt er als ze wel een persoonlijkheid hebben? Als Pleo zelfbewust was, als het echt bang was (om ondersteboven gegooid te worden), zou het dan ethisch verantwoord zijn om hem kwaad te doen?

Moeten we kunstmatige intelligentie tegen mensen beschermen?

“Traditioneel, volgens de wet, ben je óf een persoon óf je bent een ding, een eigendom. En het probleem is dat je als eigendom geen rechten hebt. Daarmee hebben we in het verleden vreselijke fouten gemaakt”, zegt Linda MacDonald-Glenn, bio-ethicus en advocaat. Je kunt hier bijvoorbeeld denken aan de verschrikkingen van slavernij. Waar we de grens trekken die rechten biedt, bepaalt alles. Zouden we ons comfortabel voelen met zelfbewuste, angstige slaven, zolang het ‘maar machines’ zijn? Zouden C3PO en R2D2 – de androïdes uit Star Wars – echt niet meer zijn dan eigendom?

“We zeggen dat we onszelf tegen KI moeten beschermen, maar moeten we KI eigenlijk niet tegen ons beschermen?” vraagt Raya Bidshahri, wetenschappelijk schrijver voor Singularity Hub zich af. Sommige deskundigen zijn van mening dat mensen zelf een veel groter probleem zijn dan de mogelijke dreiging van KI overheersers.

Wat we eigenlijk moeten doen is mensen tegen zichzelf beschermen

Een complex aspect van deze kwestie is de vraag wat mishandeling van robots voor ons betekent. Woodrow Hartzog, hoogleraar informatica en expert op het gebied van de wet, zegt: “Willen we mensen verbieden om robots bepaalde dingen aan te doen, omdat we de robot willen beschermen, of omdat we ons zorgen maken over wat gewelddadig gedrag tegen robots met ons als mens doet?” Mensen toestaan hun verlangens – of dit nu goede of slechte verlangens zijn – grenzenloos te laten botvieren, zou rampzalige gevolgen kunnen hebben. Denk bijvoorbeeld aan de replicants uit Blade Runner of het robot-attractiepark uit Westworld. Is het oké om misbruik te maken van een machine met gevoel? En als het antwoord daarop “ja” zou zijn, wat heeft dat dan voor voor gevolgen voor ons mensen?

We kunnen overwegen om robots een beperkt aantal rechten te geven, wat deskundigen negatieve vrijheden noemen. Deze rechten zouden machines beschermen tegen bepaalde vormen van mishandeling. Zo kunnen we seksrobots bijvoorbeeld verbieden of geweld tegen antropomorfe robots strafbaar maken – niet om de machines te beschermen, maar om acties te voorkomen die sociopathisch gedrag bij mensen versterken.

Juridisch misbruik is een legitieme reden tot bezorgdheid

Maar Joanna J. Bryson van de Universiteit van Bath en co-auteur van een recent artikel met de advocaten Mihailis E. Diamantis en Thomas D. Grant, is het daar niet mee eens. Deze intenties om robots te beschermen zijn goed bedoeld, maar misplaatst. Er kan zelfs misbruik van gemaakt worden. Ondernemingen zijn rechts‘personen’, maar het is een juridische fictie. Het zou een soortgelijke juridische fictie zijn om van KI een rechtspersoon te maken”, vindt Bryson. “Het levert geen voordelen op; het moedigt mensen alleen maar aan om hun KI te verdoezelen”.

Als een bedrijf iets verkeerd doet – een persoon overlijdt bijvoorbeeld door nalatigheid – kan het bedrijf niet echt gestraft worden. Hoewel het een rechtspersoon is, betekent gevangenisstraf niets voor een bedrijf. Grant vreest dat we de deur zouden openen voor mazen in de wet als robots persoonlijkheid krijgen en dezelfde wettelijke rechten als mensen. Als een zelfrijdende auto bijvoorbeeld een rechtspersoon zou zijn, zouden juridische begrippen als strafrechtelijke aansprakelijkheid zeer lastig worden. Kunnen zelfrijdende auto’s of zelfbewuste robots misdaden begaan? Berecht worden? Gevangenisstraf krijgen? Hoe zou dat allemaal in z’n werk gaan?

Het is duidelijk dat er geen eenvoudige antwoorden zijn. Wat ook duidelijk is, is dat we over deze kwesties moeten nadenken voordat zelfbewuste machines deel worden van ons leven. En dat is slechts een kwestie van tijd.

Share via
Copy link