- AI helpt de administratieve efficiëntie in de rechtszalen te verbeteren
- Kan AI menselijke rechters vervangen?
- Een ondersteunende rol in rechtspraak
- UNESCO lanceert cursus over AI en de rechtsstaat
Kunstmatige Intelligentie (AI) wordt in steeds meer gebieden en in allerlei verschillende processen toegepast. Hoewel er zorgen zijn dat AI niet onfeilbaar is en risico’s met zich meebrengt op het gebied van schendingen van de mensenrechten, biedt deze technologie ook mogelijkheden om menselijke fouten en (bewuste of onbewuste) vooroordelen, discriminatie en vooringenomenheid terug te dringen. Een voorbeeld van een gebied waarin de voordelen en uitdagingen van AI duidelijk zichtbaar zijn is de rechtspraak. Gerechtelijke systemen maken steeds vaker gebruik van AI om te helpen bij taken als het stroomlijnen van administratieve processen, het analyseren van gegevens om juridische precedenten te vinden, en zelfs het doen van voorspellingen en het nemen van belangrijke beslissingen.
AI helpt de administratieve efficiëntie in de rechtszalen te verbeteren
Naast gerechtelijke verantwoordelijkheden moeten rechters ook administratieve werkzaamheden uitvoeren. AI-tools kunnen sommige van deze taken overnemen, waardoor rechters meer tijd en energie hebben voor taken waarbij menselijke input noodzakelijk of wenselijk is. Uit een rapport van het Vidhi Center for Legal Policy, een onafhankelijke denktank, blijkt dat ‘taakspecifieke AI-tools’ de administratieve werklast kunnen verlichten door taken als het filteren, prioriteren en volgen van rechtszaken, meldingen sturen over ontwikkelingen en electronic filing over te nemen. Bij elke rechtszaak worden aanzienlijke aantallen bestanden en aantekeningen geproduceerd, en AI-programma’s kunnen deze efficiënter analyseren en categoriseren dan menselijke werknemers. AI kan ook door advocaten worden gebruikt om juridisch ‘jargon’ automatisch te vereenvoudigen en voor cliënten begrijpelijk te maken.
Een toonaangevend advocatenkantoor in India gebruikt een machine learning-programma met de naam ‘Kira’ dat ontwikkeld is door het Canadese techbedrijf Kira Systems. Kira kan allerlei taken uitvoeren, waaronder het analyseren van documenten om kritieke informatie te identificeren. Andere Indiase advocatenkantoren gebruiken een soortgelijk AI-platform, ‘Mitra’, dat nuttig is gebleken op het gebied van casemanagement en due diligence. Ondanks deze veelbelovende start is er zeker ook veel ruimte voor verdere ontwikkeling en verbetering van deze technologie. Volgens Nikhil Narendran van advocatenkantoor Trilegal “zijn de meeste systemen nog vrij rudimentair en duurt het nog jaren voordat ze echt volledig betrouwbaar zijn.” Dit is typerend voor machine learning – de algoritmen zijn ontworpen om in de loop van de tijd steeds nauwkeuriger te worden.
Ondanks dat AI de administratieve efficiëntie kan verbeteren, blijkt echter ook dat rechters potentieel te afhankelijk kunnen worden van AI, waardoor ze uiteindelijk minder gebruikmaken van hun eigen intuïtie.
Due diligence-processen nemen normaal gesproken maanden in beslag, maar het controleren van feiten kan veel sneller en nauwkeuriger door algoritmen worden uitgevoerd dan door mensen. Echtscheidingsadviesbureau Wevorce heeft een zelfgestuurde, op AI gebaseerde oplossing ontwikkeld om zaken te categoriseren en snel aan juridische experts toe te wijzen. De gemiddelde echtscheiding in de VS duurt een jaar om tot een schikking te komen en kost $15.000. Het automatiseren van deze processen met AI zou deze tijd en kosten aanzienlijk kunnen verminderen. Een paper van het Vidhi Center for Legal Policy bevestigt dat AI administratieve en onderzoekstaken aanzienlijk efficiënter kan maken. Het Hooggerechtshof van India ontwikkelt zelfs een AI-tool met de naam SUPACE (Supreme Court Portal for Assistance in Court Efficiency) om bij juridisch onderzoek, gegevensanalyse en andere essentiële processen te assisteren. Ondanks dat AI de administratieve efficiëntie kan verbeteren, blijkt uit het rapport van het Vidhi Center for Legal Policy echter ook dat rechters potentieel te afhankelijk kunnen worden van AI, waardoor ze uiteindelijk minder gebruikmaken van hun eigen intuïtie. Om ervoor te zorgen dat op AI gebaseerde systemen het meest effectief zijn, is het dan ook belangrijk dat AI in combinatie met menselijke expertise en intuïtie gebruikt wordt, in plaats van deze door AI te vervangen.
Kan AI menselijke rechters vervangen?
‘Predictive justice’ – waarbij machine learning-algoritmen de waarschijnlijkheid van het plaatsvinden van bepaalde gebeurtenissen voorspellen – is een opkomende trend in de rechtspraak. Deze algoritmen analyseren gegevens van juridische geschillen, vergelijken deze met informatie uit databases van eerdere beslissingen en jurisprudentie, en ontwikkelen vervolgens hun voorspellingsmodellen. Na verloop van tijd wordt de machine learning-software steeds nauwkeuriger. Uiteraard moeten deze oplossingen eerst uitgebreid gebruikt en geoptimaliseerd worden voordat ze voldoende inzichtelijk kunnen zijn. Dan is er ook de potentiële uitdaging van de nauwkeurigheid van de initiële gegevens zelf: een AI-systeem kan alleen zo nauwkeurig zijn als de gegevens waarmee het getraind en geprogrammeerd wordt. Als die gegevens menselijke fouten of vooroordelen bevatten, is de kans groot dat de AI deze vooroordelen zal reproduceren en ongelijkheden zal verergeren.
Het is dan ook niet verwonderlijk dat AI-experts zich zorgen maken over een eventuele centrale besluitvormingsrol van AI in de rechtspraak. Het concept van een volledig op AI gebaseerde rechter die onveranderlijk en onbevooroordeeld is, is echter nog toekomstmuziek – als het überhaupt ooit mogelijk zal zijn. Bovendien roept het idee allerlei ethische bezwaren op en zou het kunnen leiden tot nog meer rechtszaken, vooral als er een vermoeden is van vooringenomenheid of onnauwkeurigheid. Te veel beslissingsbevoegdheid overdragen aan AI-systemen voordat deze voldoende ontwikkeld en geperfectioneerd zijn, zou dus niet alleen contraproductief maar ook gevaarlijk zijn. Om deze uitdagingen te voorkomen adviseert het Vidhi Center for Legal Policy dat er voor elk gebruik van AI in de rechtspraak uitgebreide juridische en ethische kaders moeten komen. Een goed voorbeeld van een dergelijk kader is het Europees Ethisch Handvest dat in 2018 is aangenomen door de European Commission for the Efficiency of Justice (CEPEJ). Dit kader is ontwikkeld om te begeleiden en te adviseren over de toepassing van AI in de rechtspraak en omvat een aantal kernprincipes. Zo moet de AI in overeenstemming zijn met fundamentele rechten en mag het niet leiden tot of bijdragen aan discriminatie tussen individuen of groepen. Ook moeten de dataverwerkingsmethodes toegankelijk en begrijpelijk zijn en gecontroleerd kunnen worden. Verder moeten gebruikers op de hoogte zijn als oplossingen die door AI worden aangedragen bindend zijn en weten dat ze recht hebben op juridisch advies of een gang naar de rechter.
De CEPEJ is van mening dat AI de rechtspraak ten goede kan komen, maar dat het op verantwoorde wijze en met respect voor fundamentele mensenrechten moet worden geïmplementeerd en gebruikt. Het Handvest bevat ook ‘best practices’ om ervoor te zorgen dat processen op de juiste manier worden uitgevoerd. En voor het succes van deze systemen is een nauwe samenwerking met juridische professionals en onderzoekers essentieel.
Kwesties als vooringenomenheid en discriminatie zijn de belangrijkste redenen waarom AI – in ieder geval voor de aankomende tijd – alleen als hulpmiddel ingezet moet worden, in plaats van het de volledige controle over rechtssystemen te geven.
Een ondersteunende rol in de rechtspraak
De geleidelijke invoering van AI in de rechtspraak is te vergelijken met de introductie van IT. In beide opzichten is de governance (het hoe, wie, wanneer, waar en waarom van besluitvorming) van rechterlijke macht de belangrijkste factor van belang. IT bood zowel kansen als uitdagingen voor de rechterlijke macht. Zo maakt de Nederlandse rechtspraak gebruik van verschillende vormen van ICT; denk bijvoorbeeld aan rechtbankbeheersystemen, digitale procedures en elektronisch deponeren. Om ervoor te zorgen dat IT onder de controle van de rechterlijke macht bleef, installeerde de rechterlijke macht een eigen IT-ontwikkelingsorganisatie. In-house ontwikkeling heeft het voordeel dat het komt vanuit een perspectief van directe ervaring met gerechtelijke procedures, vereisten en uitdagingen. Als IT-systemen worden toevertrouwd met het uitvoeren van essentiële processen, moeten ze door de rechterlijke macht zelf worden ontwikkeld en geprogrammeerd. In het geval van de rechtspraak is dit bereikt door gecontracteerde softwareontwikkelaars samen te laten werken met interne professionals met ervaring op dat gebied. Hierdoor kon de IT-ontwikkeling onder regie van de rechterlijke macht plaatsvinden.
Kwesties als vooringenomenheid en discriminatie zijn de belangrijkste redenen waarom AI – in ieder geval voor de aankomende tijd – alleen als hulpmiddel ingezet moet worden, in plaats van het de volledige controle over rechtssystemen te geven. Door sommige Amerikaanse rechtsgebieden wordt bijvoorbeeld gebruikgemaakt van technologie die de risico’s van recidive kan berekenen en gedetineerden een score kan toekennen waarmee de kans op recidive aangegeven wordt. Deze algoritmen analyseren een enorme en almaar toenemende hoeveelheid casusgerelateerde gegevens uit het verleden, maar er zijn wel degelijk vragen over hoe analyses plaatsvinden en wie verantwoordelijk is voor de beslissingen die op basis hiervan genomen worden. De in de VS gevestigde non-profitorganisatie ProPublica onderzocht de nauwkeurigheid van de COMPAS-software (Correctional Offender Management Profiling for Alternative Sanctions) die in Florida wordt gebruikt om de kans op recidive te voorspellen. Uit de studie bleek dat “Zwarte beklaagden veel meer kans hadden dan witte beklaagden om ten onrechte te worden aangemerkt als hoger recidiverisico. Ook hadden witte beklaagden meer kans dan zwarte beklaagden om ten onrechte als laag risico te worden aangemerkt.” Dit bewijst niet alleen hoe belangrijk verantwoording is bij het gebruik van AI, maar toont ook aan hoe gevaarlijk het is als algoritmen met vooringenomen gegevens getraind worden. Zelfs de slimste machine learning-algoritmen met het grootste veranderingsvermogen worden beperkt door de validiteit van de gegevens waar ze (in eerste instantie) mee in aanraking komen. Totdat er oplossingen zijn gevonden voor deze uitdagingen, zal AI waarschijnlijk alleen een ondersteunende rol spelen in de rechtspraak.
Hoewel IT nu een vast onderdeel is van rechtsstelsels overal ter wereld, hebben de meeste landen bestuursstructuren waarbij menselijke rechters geautomatiseerde systemen kunnen negeren en uiteindelijke belangrijke beslissingen zelf kunnen nemen. Dit is ook voor het gebruik van AI-systemen voorlopig van kritiek belang. Tegenwoordig wordt IT in gerechtelijke systemen op grote schaal – in combinatie met menselijke werknemers – gebruikt. De uitdagingen zijn overwonnen of geminimaliseerd en de voordelen ervan geoptimaliseerd, en hetzelfde zal waarschijnlijk ook met AI gebeuren. Nieuwe technologieën verdwijnen zelden. Daarom moeten we ervoor zorgen dat ze op de juiste manier en voor de juiste doeleinden worden gebruikt.
UNESCO lanceert cursus over AI en de rechtsstaat
Het IEEE (Institute of Electrical and Electronics Engineers) heeft, met de steun van UNESCO en de Open Society Foundation, een gratis, wereldwijde MOOC (Massive Open Online Course) over AI en de rechtsstaat gelanceerd. Op het moment van schrijven hebben bijna 4.000 kandidaten zich geregistreerd om deel te nemen aan de cursus, die is ontwikkeld met de hulp en inbreng van experts, waaronder rechters van het Hooggerechtshof en het Hof voor de Rechten van de Mens. Het doel van de cursus is om manieren te vinden waarop AI de administratieve processen van de rechterlijke macht kan verbeteren en hoe discriminatie en vooringenomenheid kunnen worden aangepakt. De cursus is beschikbaar in zeven talen en bestaat uit zes modules:
- Een inleiding tot waarom digitale transformatie en AI belangrijk zijn voor rechtssystemen
- AI-adoptie in alle rechtssystemen
- De opkomst van online rechtbanken
- Algoritmische vooringenomenheid en de implicaties daarvan voor gerechtelijke besluitvorming
- Bescherming van mensenrechten in het tijdperk van AI
- AI-ethiek en governance met betrekking tot justitiële operators
Een laatste overweging
Nauwkeurige besluitvorming is vooral essentieel in de rechtspraak, dat een fundamenteel aspect is van onze democratie en onze vrijheid. Kwesties als discriminatie, vooringenomenheid en gebrek aan transparantie worden vaak genoemd door degenen die zich zorgen maken over het gebruik van AI. Toch zijn deze problemen ook al wijdverbreid te vinden in de huidige rechtsstelsels die op menselijke besluitvorming gebaseerd zijn. En ook al zijn de besluitvormingsprocessen van algoritmen moeilijk te ontcijferen; datzelfde geldt ook voor het begrijpen van de mentale processen van bijvoorbeeld menselijke rechters en advocaten. We kunnen noch van het menselijk brein, noch van een machine die door iemand is geprogrammeerd, met zekerheid zeggen dat deze deze foutloos zijn. Sterker nog, het toenemende gebruik van AI zou problemen als menselijke vooroordelen jegens meer charismatische sprekers in een rechtszaal en institutionele vooroordelen jegens mensen met meer financiële middelen en maatschappelijke macht juist kunnen terugdringen.
Van AI-systemen moeten we kunnen verwachten dat ze bestaande problemen helpen oplossen in plaats van deze te verergeren of te creëren. Daarvoor zijn effectieve kaders nodig waarbinnen algoritmen geprogrammeerd en ontwikkeld worden. Uiteraard heeft, net zoals andere technologische ontwikkelingen, verschillende beperkingen. Maar als deze technologie correct en verantwoord wordt ingezet, met inachtneming van ethiek en mensenrechten, kan het de rechtspraak aanzienlijk verbeteren. Initiatieven als het CEPEJ-handvest en de MOOC van UNESCO kunnen ertoe bijdragen dat AI in overeenstemming met de regels van de wet, gerechtigheid en gelijkheid wordt gebruikt. AI moet voorlopig ook niet als vervanging van menselijke medewerkers worden ingezet, maar als assistent. Als deze principes in acht genomen worden en de technologische ontwikkelingen op het gebied van kunstmatige intelligentie zich voortzetten, kan dit verstrekkende positieve effecten hebben.
Share via: