Kunstmatig intelligente rechter, jury en beul – nemen algoritmen het strafrecht over?

Foto van Richard van Hooijdonk
Richard van Hooijdonk
  • Zijn kunstmatige intelligentie en slimme algoritmen het antwoord op discriminatie bij veroordelingen?
  • Zijn deze algoritmen eigenlijk wel zo slim?
  • Een nieuw tijdperk van strafrechtgeheim
  • Loomis v. Wisconsin: de ‘black box’ is goed genoeg voor het Hooggerechtshof
  • Algoritmen en strafrecht – misschien toch niet zo’n goed idee

Maar liefst 13 procent van de gedetineerden in het VK bestaat uit zwarte mannen, terwijl ze maar 3 procent van de bevolking in de VK uitmaken. In de VS zijn deze cijfers al niet veel beter. Daar maken zwarte mannen – hoewel slechts 13 procent van de bevolking – 40 procent uit van de gevangenen. Dit betekent dat zwarte mannen ongeveer 4 keer vaker in de gevangenis belanden dan we van een rechtvaardig systeem verwachten. “Van degenen die in de Verenigde Staten gevangen zitten,” schrijft Vinay Iyengar in de Harvard Political Review, “is 58 procent zwart of Spaans, ook al maken deze groepen slechts een kwart van de totale bevolking van het land uit.” Dit zijn ontstellende aantallen. Systematische racisme in het strafrechtssysteem is dan ook haast niet te ontkennen.

Zijn kunstmatige intelligentie en slimme algoritmen het antwoord op discriminatie bij veroordelingen?

Voor dit overduidelijke probleem hebben particuliere bedrijven nu een hightech oplossing ontwikkeld – slimme algoritmen die door geavanceerde kunstmatige intelligentie worden aangedreven. Sommige daarvan worden al gebruikt om risico’s in te schatten, te beslissen waar de politie op patrouille gaat en advies te geven over de strafmaat. Sharad Goel, professor van Stanford’s Department of Management Science and Engineering, legt uit dat “data en algoritmen de wetshandhaving en het strafrecht in razendsnel tempo veranderen, inclusief de manier waarop politieagenten worden ingezet, hoe discriminatie wordt opgespoord en hoe straffen, reclassering en voorwaardelijke vrijlating worden vastgesteld.” Ook al zijn de bedoelingen achter deze technologie weliswaar goed, toch waarschuwt hij dat “het gebruik ervan ook complexe juridische, sociale en ethische vragen oproept.”

Close-up van een hand die een smartphone vasthoudt met het digitaal in kaart gebracht gezicht van een man
Voor dit overduidelijke probleem hebben particuliere bedrijven nu een hightech oplossing ontwikkeld – slimme algoritmen die door geavanceerde kunstmatige intelligentie worden aangedreven.

Zijn deze algoritmen eigenlijk wel zo slim?

Kunstmatige intelligentie berekent niet alleen de snelste route naar je bestemming, het wordt bijvoorbeeld ook gebruikt om je kredietwaardigheid te beoordelen wanneer je een lening aanvraagt. Slimme algoritmen zijn in staat om enorme hoeveelheden informatie te filteren, op zoek naar antwoorden. Maar zoals Jason Tashea voor Wired schrijft, is deze ogenschijnlijk onberispelijke logica allesbehalve volmaakt. Algoritmen denken niet – ze handelen snel, efficiënt en nauwkeurig binnen de grenzen van hun code. Maar die basisprogrammering is net zo vatbaar voor vooroordelen en fouten als de mensen die de code schrijven.

Een voorbeeld: Tashea beschrijft een stuk autosnelweg in het landelijke Arkansas, dat bij de lokale bevolking bekend staat om zijn steile hellingen en haarspeldbochten. Vrachtwagens die het gebied kennen vermijden dit stuk, maar de algoritmen die voor de snelwegnavigatie zijn geschreven kunnen deze risico’s niet inschatten. Ze stellen de meest efficiënte route voor en sturen vrachtwagens vervolgens op weg naar een route die ongeschikt is voor commercieel verkeer. Het resultaat: een dramatische toename van het aantal ongevallen en bestuurders die geen vertrouwen meer hebben in navigatie-apps. Dit is een goed voorbeeld van het probleem met algoritmen – ze doen wat ze opgedragen wordt. Ze denken niet out-of-the-box.

Een nieuw tijdperk van strafrechtgeheim

De meeste van deze algoritmen worden verkocht door particuliere bedrijven. Het is propriëtaire software die niet toegankelijk is voor degenen die er gebruik van maken of er het ‘slachtoffer’ van zijn. Net als bij je favoriete navigatie-app, zie je alleen de resultaten, niet de berekeningen of code ervan. Tashea waarschuwt: “Er is weinig inzicht in en transparantie over hoe ze werken. En nergens is dit gebrek aan transparantie duidelijker dan in het strafrechtsysteem. Zonder de juiste voorzorgsmaatregelen is er een grote kans dat deze tools de rechtsstaat afbrokkelen en individuele rechten ondermijnen.” We weten niet hoe deze algoritmen functioneren of welke feiten ze in overweging nemen – dat weten alleen hun makers. Sterker nog, het rechtssysteem kan de beslissingen of adviezen die de algoritmen produceren niet beoordelen – het is een soort take it or leave it.

Loomis v. Wisconsin: de ‘black box’ is goed genoeg voor het Hooggerechtshof

Hier is een voorbeeld van minstens één belangrijke juridische uitdaging. Eric Loomis, een gedaagde in een schietzaak, sloeg in een gestolen auto op de vlucht voor de politie. Na zijn arrestatie werd zijn risico voor de gemeenschap en het risico op terugval bepaald door een algoritme. Bij zijn veroordeling heeft het algoritme er in feite voor gezorgd dat hij een gevangenisstraf van zes jaar opgelegd kreeg. Later werd het vonnis door zijn juridische team aangevochten op grond van het feit dat zijn advocaten – of enig iemand anders – die risicobeoordeling op geen enkele manier konden weerleggen. Het oordeel van het algoritme over Loomis was verzegeld, privé en ‘black-boxed’, precies het tegenovergestelde van hoe het strafrecht zou moeten functioneren. Desondanks weigerde het Amerikaanse Hooggerechtshof zijn zaak te behandelen, liet het vonnis in werking treden en Loomis ging achter slot en grendel.

Deze algoritmen zijn bedoeld om overwerkte rechtbanken te helpen en beklaagden te beschermen tegen vooroordelen en partijdigheid. De bedrijven die ze ontwikkelen doen dat ongetwijfeld met de beste bedoelingen. Maar om geld te verdienen, moeten ze bepaalde dingen voor hun concurrenten geheim houden. Deze geheimhouding maakt dat het rechtssysteem zelf niet weet hoe het algoritme tot beslissingen komt. Dat is misschien prima voor Google Maps, maar in de rechtszaal is dat bij lange na niet goed genoeg. En ondanks de belofte van neutraliteit zijn er toch verschillende voorbeelden die aantonen dat KI’s verbazingwekkend bevooroordeeld kunnen zijn. Deze problematiek was overigens in 2014 al aan de orde. De toenmalige Amerikaanse procureur-generaal, Eric Holder, argumenteerde: “Hoewel deze algoritmen met de beste bedoelingen zijn ontwikkeld, vrees ik dat ze onze inspanningen om een geïndividualiseerde en gelijke rechtspraak te waarborgen ondermijnen.”

Een ander voorbeeld is een Amerikaans KI systeem dat ontwikkeld werd om te bepalen welke gevangenen in aanmerking kwamen voor voorwaardelijke vrijlating. Deze KI nam statistieken mee in zijn berekeningen over de kans op recidive. Omdat zwarte mensen volgens de statistieken sneller terug zouden vallen in hun criminele patroon was het advies van de KI om deze bevolkingsgroep geen voorwaardelijke vrijlating te verlenen.

Een pratende man in donkergroen overhemd op de voorgrond en een andere man wazig op de achtergrond
Deze algoritmen zijn bedoeld om overwerkte rechtbanken te helpe

Algoritmen en strafrecht – misschien toch niet zo’n goed idee

Algoritmen kunnen een heleboel dingen heel goed. Maar in het strafrecht zouden ze geen plek moeten hebben. Christopher Markou, een promovendus in Cambridge, maakt zich zorgen dat ze het strafrecht ‘black-boxen’ en leiden tot een terugkeer naar het tijdperk van afgesloten rechtbanken waar de gedaagden hun aanklagers niet onder ogen kwamen en beredeneerde argumenten over hun schuld niet te horen kregen. Binnen deze systemen vormen schuld en onschuld, risico’s en veroordelingen een gesloten circuit en Markou ziet dit als een kritieke tekortkoming. Rechtsstelsels zijn afhankelijk van de continuïteit van informatie, transparantie en het vermogen om te deze te beoordelen,” schrijft hij. Wat wij als samenleving niet willen is een rechtssysteem dat een race stimuleert waarin KI-startups producten zo snel, goedkoop en exclusief mogelijk leveren. KI-waarnemers hebben dit jaren geleden al aan zien komen en nu is het er. En het is een verschrikkelijk idee.”

Share via
Copy link