- We gebruiken ze continu, maar wat zijn algoritmen precies?
- Wanneer algoritmen voor goede doeleinden worden gebruikt
- De rampzalige gevolgen van ‘algorithms gone wrong’
- Hoe kunnen we algoritmes in goede banen leiden?
- Het ‘computer-says-no’-dilemma
- Een laatste overweging
Algoritmen vormen een belangrijk onderdeel van ons dagelijks leven. Meestal realiseren we ons niet eens dat – en waarvoor – we ze gebruiken. Maar de realiteit is dat we zonder algoritmen niet meer zouden kunnen functioneren. Het internet draait op algoritmen. E-mails bereiken hun bestemming dankzij algoritmen en zonder algoritmen zouden onze smartphone-apps niet werken. En hoewel algoritmen met goede bedoelingen zijn ontwikkeld – om ons leven te verbeteren – veroorzaken ze steeds vaker grote problemen. Ze maken fouten, zijn bevooroordeeld en kunnen voor criminele doeleinden worden gebruikt. Bovendien zijn er nog geen (noemenswaardige) regelgevende of toezichthoudende instanties die ons beschermen tegen situaties waarin algoritmen potentieel allerlei ellende kunnen veroorzaken. En tot overmaat van ramp hebben bestuurders en besluitvormers niet altijd de juiste kennis in huis om de juiste beslissingen te nemen. Ambtenaren en medewerkers laten beslissingen vaak over aan algoritmen die ernaast zitten. Goed toezicht, en dus bescherming, ontbreekt. Zijn we aan de ‘goden’ overgeleverd?
We gebruiken ze continu, maar wat zijn algoritmen precies?
Een algoritme is in feite een set regels of stappen die op verschillende manieren kunnen worden geïmplementeerd om een bepaald doel te bereiken. De stappen in een recept die je volgt om een maaltijd te bereiden zijn een algoritme. Computeralgoritmen zijn de onzichtbare mechanismen die bepalen welke aanbevelingen we op social media, Netflix of op een modewebsite zien. Algoritmen lossen problemen op. Denk aan de smartphone-apps die ons helpen de meest efficiënte route naar een bestemming te vinden en verbinding maken met andere databases om real-time verkeersinformatie te verzamelen. Algoritmen kunnen het weer voorspellen en ons helpen met beslissingen op de aandelenmarkt. Ze kunnen helpen bij het diagnosticeren van ziekten als borstkanker of bij het identificeren van nepnieuws. Ze zorgen ervoor dat onze slimme apparaten op onze spraakopdrachten reageren en onze vingerafdrukken of ons gezicht herkennen. Ze worden gebruikt om alles dat we doen te monitoren, zoals welke artikelen we het liefst lezen. Hier halen ze belangrijke gegevens uit, zodat ze ons andere artikelen kunnen aanbevelen. Algoritmen kunnen zelfs worden ‘geïnstrueerd’ om bepaalde informatie voor ons verborgen te houden.
Wanneer algoritmen voor goede doeleinden worden gebruikt
Computeralgoritmen zijn dus ontwikkeld om ons met een groot aantal taken te assisteren. Ze maken enorme snelheden en efficiëntie mogelijk en leiden tot meer creativiteit en zelfexpressie. Ze helpen ons databases door te spitten en kunnen kennis veel sneller extraheren dan mensen dat ooit zullen kunnen. Algoritmen maken taken als besluitvorming, inkoop, transport en allerlei andere bovendien vele malen efficiënter. “Als alle algoritmen plotseling zouden stoppen met werken, zou dit het einde zijn van de wereld zoals we die kennen”, zegt trendwatcher en futurist Richard van Hooijdonk.
Algoritmen voor het ontwikkelen van vaccins
Vroeger duurde het tientallen jaren om een nieuw vaccin te ontwikkelen. Tegenwoordig gaat dat echter in recordtempo. Sterker nog, vaccins werden drie maanden nadat COVID-19 voor het eerst werd ontdekt al bij mensen getest. Deze ontwikkelingen kunnen gedeeltelijk worden toegeschreven aan de algoritmen die onderzoekers hielpen bij het analyseren van grote hoeveelheden informatie over het coronavirus. Machine learning-algoritmen kunnen duizenden subcomponenten van viruseiwitten razendsnel doorzoeken en voorspellen welke componenten het meest waarschijnlijk een immuunrespons zullen triggeren. Dit helpt onderzoekers om veel sneller specifiek gerichte vaccins te ontwikkelen dan voorheen mogelijk was. In de meer dan 200-jarige geschiedenis van immunisatie is dit een veelbelovende ontwikkeling die de manier waarop vaccins worden gemaakt volledig kan transformeren. Hierdoor kunnen we in mogelijke toekomstige epidemieën talloze levens redden. “AI is een krachtige katalysator waarmee wetenschappers, door gegevens uit meerdere experimentele en real-world bronnen met elkaar te combineren, tot betere inzichten kunnen komen. Deze datasets zijn vaak zo rommelig en zo’n uitdaging dat wetenschappers dit soort analyses in het verleden niet eens hebben aangedurfd”, aldus Suchi Saria, professor aan de Johns Hopkins Whiting School of Engineering.
Algoritmen voor het oplossen van misdrijven
Voor je genoeg bewijsmateriaal hebt verzameld om misdaden te kunnen oplossen moet je eerst enorme bergen informatie doorspitten. En om al deze informatie te kunnen begrijpen en patronen te kunnen ontdekken, hebben we hulp nodig – bijvoorbeeld van algoritmen. Onderzoekspsycholoog Daan Sutmuller legt uit: “Er is een breed scala aan moorden en de kenmerken van een plaats delict kunnen elkaar overlappen. Steekwonden kunnen bijvoorbeeld wijzen op zowel een relationele moord als een psychotische dader. En omdat elke moordzaak uniek is, heeft ook elke zaak zijn eigen algoritme”. Sutmuller wil een softwarepakket ontwikkelen met een bibliotheek waarin bewijselementen worden beoordeeld. “Hiermee kan een analist voor een bepaalde zaak een algoritme ontwikkelen. Door de bouwstenen uit de bibliotheek te gebruiken en aan te passen aan de bijzonderheden van de casus, zou het algoritme belangrijke personen of mogelijke verdachten kunnen onthullen. De resultaten kunnen de detective vervolgens in een bepaalde richting sturen. Hiervoor moet mogelijk het sociale netwerk van het slachtoffer worden doorzocht of moet er onderzoek gedaan worden naar de mensen die hun telefoon in de buurt van het plaats delict hebben gebruikt. Het is de bedoeling dat het algoritme de rechercheurs ondersteunt bij het maken van hun keuzes”.
Algoritmen helpen je met klantbehoud
Bedrijven kunnen machine learning-algoritmen ook gebruiken om hun klanten te behouden. Algoritmen kunnen de signalen analyseren die wijzen op potentieel klantverloop of ‘churn’ – het fenomeen waarbij klanten geen goederen of diensten meer kopen of geen interactie meer hebben met het bedrijf. Door zogenaamde ‘churnmodellen’ te creëren, kunnen algoritmen het percentage klanten voorspellen dat waarschijnlijk geen toekomstige aankoop zal doen. Dit doen de algoritmen door te observeren en analyseren welke gedragspatronen of kenmerken voorspellend zijn voor het vertrek van een klant. Churnmodellen kunnen worden gebruikt om bedrijven te helpen met beslissingen over prijsstelling, nieuwe marketingcampagnes, of product- of serviceverbeteringen. Bedrijven die constant concurreren om bestaande klanten te behouden en nieuwe klanten te werven, zullen veel baat hebben bij churnmodellen. Een beroemde uitspraak van Jack Welch, voormalig CEO van General Electric, luidt: “Er zijn drie voorwaarden voor het managen van het leervermogen als ultiem concurrentievoordeel: de wil om te leren moet aanwezig zijn, het moet ook mogelijk zijn om te leren en de capaciteit moet er zijn om het geleerde snel in actie om te zetten”. Daar hebben we nu dus algoritmen voor.
Algoritmen ontwerpen betere gebouwen
Algoritmen bieden architecten en ingenieurs ook nieuwe om de beste manier te vinden om gebouwen te ontwerpen en te bouwen. Algoritmen kunnen patronen identificeren in constructies die nog gebouwd moeten worden. Zo krijgen architecten beter inzicht in hoe een ruimte op de meest efficiënte manier gebruikt kan worden en wat de beste indeling is. Algoritmen bieden ook oplossingen op het gebied van structurele, ruimtelijke en energie-efficiëntie. Zaha Hadid Architects gebruikt algoritmen bijvoorbeeld voor het geautomatiseerd testen van duizenden layoutopties en om manieren te vinden om onregelmatig gevormde gebouwen te creëren zonder dat deze enorm duur worden. Algoritmen zijn de afgelopen jaren steeds belangrijker geworden bij het ontwerpen van nieuwe gebouwen die zich voortdurend aanpassen als reactie op omgevings-, structurele en gebruiksgegevens. Algoritmen creëren zelfs kantoorinrichtingen waarbij het maximale aantal mensen aanwezig kan zijn en tegelijkertijd ook de social distancingmaatregelen in acht genomen kunnen worden. Wanneer we de drie toepassingen van algoritmen met elkaar combineren – het managen van complexe informatie, het onthullen van patronen en het genereren van nieuwe ruimtelijke arrangementen – zal de volgende generatie van algoritmisch ontwerp ons veel beter in staat stellen om de gebouwde omgeving te verbeteren.
Algoritmen kunnen autonome auto’s ‘ongevalbestendig’ maken
Als het gaat om volledige verkeersveiligheid zijn de computer visionsystemen, camera’s en beeldverwerkingsmogelijkheden van autonome auto’s nog niet voldoende ontwikkeld. Ze kunnen bijvoorbeeld nog niet detecteren wanneer een verkeersdeelnemer knikt, lacht of ergens naar wijst. Ook lichtsignalen kunnen door algoritmen moeilijk geïnterpreteerd worden, omdat deze, afhankelijk van de verkeerssituatie, van alles kunnen betekenen – zoals ‘er is iets mis met je auto’, ‘opletten’ of ‘ga je gang’. Algoritmen kunnen autonome voertuigen alleen ‘ongevalsbestendig’ maken als andere weggebruikers zich verantwoordelijk gedragen en zich aan de regels houden. De huidige algoritmes kunnen tot op zekere hoogte wel rekening houden met onverwachte verkeerssituaties, zoals voetgangers of fietsers die plotseling opduiken, maar mensen zijn daar nog steeds veel beter in. Alleen zodra we helemaal zeker weten dat autonome auto’s veiliger rijden dan automobilisten en adequaat op allerlei unieke verkeerssituaties kunnen reageren zullen we ze vaker op onze wegen gaan tegenkomen. We zouden autonome auto’s bijvoorbeeld hun eigen wegen en rijstroken kunnen geven. Na verloop van tijd zouden deze zelfrijdende rijstroken geleidelijk kunnen worden uitgebreid totdat alle voertuigen autonoom zijn. Denk aan een soort trein- of tramsysteem zonder rails. De gemakkelijkste en veiligste manier om autonoom vervoer te realiseren, is door zelfrijdende auto’s (voorlopig) van andere weggebruikers gescheiden te houden.
De rampzalige gevolgen van ‘algorithms gone wrong’
In veel gevallen – waar het risico relatief laag is – kan AI prima zelf beslissingen nemen, zoals de juiste banneradvertentie voor een bepaald publiek weergeven of de meest efficiënte route naar huis uitstippelen. Maar als het gaat om meer delicate zaken of situaties waar enorme risico’s genomen moeten worden, zoals bijvoorbeeld het correct diagnosticeren van een levensbedreigende ziekte, wordt het een hele andere kwestie. Soms is de werk- en ‘denk’wijze van algoritmen zo complex dat zelfs hun ontwikkelaars ze niet kunnen doorgronden. Dit maakt het lastig om ze blindelings te vertrouwen of te achterhalen of er iets fout is gegaan – totdat het te laat is. En wanneer algoritmes worden getraind met de verkeerde, onvolledige of bevooroordeelde data, of als ze in verkeerde handen vallen, kunnen de gevolgen rampzalig zijn. We moeten er rekening mee houden dat maximale winst voor de meeste bedrijven het absolute doel is. Winstbejag wordt vaak zelfs herverpakt als een ‘maatschappelijk goed’. Wat we ons ook moeten realiseren is dat we ons midden in een tijdperk bevinden waarin onze privacy aan het verdwijnen is en de manipulatie in marketing ongekende niveaus heeft bereikt. Algoritmen kunnen onze gedachten lezen en onze beslissingen beïnvloeden zonder dat we ons ervan bewust zijn. Of we zijn er zo aan gewend geraakt om steeds meer van onze privacy op te geven dat we dit al lang niet meer als een probleem zien. Zeker niet als we er zoveel voor terugkrijgen, zoals meer comfort, personalisatie en efficiëntie.
Een ander probleem is dat algoritmen volledig ondoorzichtig zijn, zoals een ondoordringbare black box. En alsof dat nog niet problematisch genoeg is, is het bovendien vrijwel onmogelijk om vast te stellen wie de verantwoording draagt voor de processen en beslissingen die op algoritmen zijn gebaseerd. Bij wie klop je bijvoorbeeld aan wanneer een zelfrijdende auto een aanrijding veroorzaakt met een ander voertuig – of erger nog – een voetganger omver rijdt? Algoritmische besluitvorming kan bovendien leiden tot onrechtvaardigheid jegens de minderheidsklassen die het creëert. Vervolgens blijft het ongelijkheid versterken ten voordele van een klein, bevoorrecht deel van de bevolking dat de economie domineert. Sommige experts beweren dat algoritmische beslissingen die voor grote bedrijven worden genomen uiteindelijk zullen leiden tot het einde van lokaal ondernemerschap, lokale skills, lokale intelligentie en zelfs minderheidstalen. Zoals Andrew Nachison, oprichter van We Media zegt: “De donkere kanten van de ‘geoptimaliseerde’ cultuur zullen diepgaand, obscuur en moeilijk te reguleren zijn. Denk aan het 24/7 monitoren van individuen en voorspellende analyses die voor sommige mensen veel ellende kunnen veroorzaken (‘Sorry, u komt op voorhand niet in aanmerking voor een lening’. ‘Sorry, we kunnen u momenteel geen treinkaartje verkopen’.). Vooruitgang in computers, tracking en embedded technologie zal een gekwantificeerde cultuur inluiden die nóg efficiënter en magischer – maar ook angstaanjagender – zal zijn.”
Algoritmen kunnen je ontslaan zonder dat daar een supervisor aan te pas komt
De op algoritmen gebaseerde processen van Amazon die gebruikt worden voor het monitoren van de productiviteit en het beëindigen van dienstverbanden genereren automatisch alle productiviteit-gerelateerde waarschuwingen of ontslagen – zonder input van supervisors. Supervisors hebben echter wel de mogelijkheid om deze beslissingen te wijzigen of ongedaan te maken, aldus Amazon. Het probleem hiermee is dat algoritmen geen mensen zien, maar alleen getallen. Amazon-medewerkers hebben herhaaldelijk gemeld dat ze worden behandeld als robots en door geautomatiseerde systemen worden gemonitord. De systemen genereren zelfs automatische waarschuwingen wanneer er te lange pauzes zijn tussen het scannen van pakketten. Een aantal van deze waarschuwingen kan automatisch leiden tot ontslag. Sommige werknemers hebben zelfs gezegd dat ze niet naar het toilet gaan, omdat ze bang zijn dat het systeem dit als een ‘onrechtmatige pauze’ ziet, waardoor ze in de problemen komen. Een advocaat van Amazon heeft bekendgemaakt dat het bedrijf tussen augustus 2017 en september 2018 bij een enkele faciliteit honderden werknemers wegens efficiëntie- en productiviteitsproblemen heeft ontslagen.
Algoritmen kunnen vooringenomenheid veroorzaken en ongelijkheid verergeren
Er zijn talloze voorbeelden van algoritmen die tot ongelijkheid leiden. Zoals bijvoorbeeld in de Amerikaanse staat Indiana, waar een algoritme onvolledig ingevulde uitkeringsaanvragen onterecht categoriseerde als ‘aanvrager heeft onvoldoende medewerking verleend’. Dit had tot gevolg dat miljoenen mensen drie jaar lang de toegang tot uitkeringen, gezondheidszorg en voedselbonnen werd geweigerd. Dit leidde ook tot het overlijden van kankerpatiënt Omega Young, die haar behandeling niet kon betalen. Het probleem is dat systemen die door bevooroordeelde mensen met vooringenomen data getraind worden tot vooringenomen algoritmen leiden, wat weer resulteert in vooringenomen uitkomsten en ongelijkheid. Wanneer we klakkeloos herhalen wat we in het verleden gedaan hebben, automatiseren algoritmen niet alleen de status quo, vooringenomenheid en onrecht, maar versterken ze bovendien de vooroordelen en onrechtvaardigheden van onze samenleving.
In februari 2020 oordeelde de Nederlandse rechtbank dat de SyRI (Systeem Risico Indicator) niet langer mag worden gebruikt in lage-inkomensgebieden om mensen met een grotere kans op het plegen van uitkeringsfraude te ‘identificeren’. Het Nederlandse ministerie van Sociale Zaken heeft het algoritmische programma in 2014 voor het eerst geïmplementeerd om informatie te verzamelen over mensen die in lage-inkomens- en migrantenwijken wonen. Deze informatie is vervolgens gebruikt om voorspellende algoritmen te trainen die worden gebruikt om het risiconiveau voor uitkeringsinstanties aan te geven. De rechtbank oordeelde dat SyRI – door op voorhand te bepalen dat iemand die in het verkeerde gebied woont eerder een misdrijf pleegt – de mensenrechten schendt. Dit heeft bovendien verstrekkende gevolgen voor de manier waarop mensenrechten- en privacywetten op voorspellende algoritmen worden toegepast. Op 15 januari 2021 besloot het Nederlandse kabinet als gevolg van de escalerende toeslagenaffaire af te treden, een schandaal waarbij naar schatting 26.000 ouders slachtoffer werden van onterechte fraudeverdenkingen en een harde fraudeaanpak door de Belastingdienst. De beschuldigde ouders moesten de volledige kinderopvangtoeslag terugbetalen, waardoor velen diep in de schulden raakten. Minister-president Mark Rutte zei tijdens een persconferentie: “Burgers moeten worden beschermd tegen een almachtige overheid. Dat is hier op verschrikkelijke wijze misgegaan. Op alle niveaus zijn fouten gemaakt die ertoe hebben geleid dat duizenden ouders groot onrecht is aangedaan”. Het bovenstaande illustreert hoe algoritmen potentieel kunnen worden gebruikt voor discriminerende doeleinden. En in plaats dat technologie als grote gelijkmaker fungeert, leidt het juist vaak tot een verergering van ongelijkheid en vooringenomenheid.
Algoritmen kunnen zorgbehoeften en -risico’s verkeerd voorspellen
Algoritmen worden ook veel gebruikt om de toekomstige medische behoeften van patiënten te voorspellen. In de VS worden op miljoenen patiënten bijvoorbeeld risicovoorspellingsalgoritmen toegepast om te bepalen wie er op dit moment baat zou hebben bij extra medische zorg, op basis van hoeveel ze het gezondheidszorgsysteem in de toekomst waarschijnlijk zullen kosten. Deze voorspellende machine learning-algoritmen worden nauwkeuriger naarmate ze nieuwe data ontvangen, maar er werd onlangs ontdekt dat ze ernstige onbedoelde gevolgen hebben. Volgens gezondheidsonderzoeker Ziad Obermeyer werden “zwarte patiënten die vaker last hadden van chronische ziekten dan witte patiënten niet aangemerkt als mensen die extra zorg nodig hadden”. Dit werd veroorzaakt door het feit dat zorgkosten werden gebruikt als proxy voor ziekte, waardoor het algoritme voorspellingen deed die alleen van toepassing waren op witte mensen, voor wie minder gezondheidsproblemen leidden tot lagere zorgkosten. Maar voor zwarte Amerikanen zijn de redenen voor lagere zorgkosten anders – zoals onvoldoende zorgverzekering, ontoereikende zorg of andere belemmerende factoren.
Algoritmen kunnen je ten onrechte beschuldigen en veroordelen
Amerikaanse rechtbanken, die onder enorme druk staan om het aantal detenties te verminderen zonder het risico te lopen dat de misdaadcijfers stijgen, zijn overgestapt op algoritmen om mensen zo veilig en efficiënt mogelijk te veroordelen. Hoewel wetshandhavingsinstanties steeds meer gebruikmaken van gezichtsherkenningstechnologie om verdachten te identificeren, is de vraag of deze systemen werkelijk voor een daling van de misdaadcijfers zorgen of bestaande ongelijkheden juist verergeren. Volgens voorstanders en onderzoekers van burgerrechten “kan gezichtsherkenningstechnologie spectaculair mislukken, vooral bij mensen met een donkere huidskleur, en zelfs leden van het Congres voor veroordeelde criminelen aanzien”. De situatie wordt zo mogelijk nog zorgelijker wanneer algoritmen ingezet worden bij criminele risicobeoordeling. De algoritmen die hiervoor zijn ontwikkeld voeren slechts één taak uit – ze gebruiken de gegevens uit het profiel van een verdachte om een recidive-score te genereren ter indicatie van de kans op terugval. Deze score wordt onderdeel van een reeks beslissingen die de strafzwaarte bepalen. Het probleem hiermee is dat minderheden en groepen met een laag inkomen – gemeenschappen die voorheen onevenredig vaak het doelwit waren van wetshandhaving – het risico lopen hoge recidivescores te krijgen. Dit leidt tot aanhoudende en versterkte vooringenomenheid, waardoor nog meer vooringenomen data gegenereerd wordt, die weer gebruikt wordt om een steeds verder vertekende vicieuze cirkel te voeden. En om de situatie nog ingewikkelder te maken, zijn de algoritmen gepatenteerd en ondoorzichtig, waardoor het vrijwel onmogelijk is om de beslissingen die ze nemen te onderzoeken of in twijfel te trekken. En terwijl burgerrechtenorganisaties hierover blijven debatteren en het gebruik van deze instrumenten proberen te stoppen, worden ze juist door steeds meer rechtsgebieden en staten geïmplementeerd, in een wanhopige poging om de puinhoop van de overbelaste correctionele faciliteiten op te ruimen.
Deepfakes worden steeds realistischer en daardoor gevaarlijker
Bij het horen van het woord ‘deepfakes’ denken we aan sites als Deepnudes, waar een willekeurig gezicht op (pornografische) video-content kan worden geplaatst. Maar als je bedenkt dat veel landen momenteel actief betrokken zijn bij cyberoorlogen, kunnen deepfakes nog veel ernstigere gevolgen hebben. Deepfakes zijn oorspronkelijk voor entertainmentdoeleinden ontwikkeld, maar ze kunnen ook als gevaarlijke wapens in de strijd tegen de waarheid gebruikt worden. Deze technologie maakt het heel gemakkelijk om hyperrealistische video’s te creëren van gebeurtenissen die in werkelijkheid nooit hebben plaatsgevonden. Burgers, wetshandhavers en wetgevers maken zich steeds meer zorgen over het duistere potentieel van deepfakes. Ze kunnen gebruikt worden om aan te zetten tot geweld en zelfs ons democratisch discours en verkiezingsresultaten te beïnvloeden. En aangezien deze technologie met ongelooflijke snelheid evolueert wordt het steeds ingewikkelder om deepfakes van authentieke video-content te onderscheiden. In een wereld waarin we altijd hebben kunnen vertrouwen op ‘zien is geloven’ vormt deze technologie dus een aanzienlijke bedreiging. Met een goed gescripte en perfect getimede deepfake of een reeks deepfakes kun je verkiezingen beïnvloeden, geweld aanwakkeren of politieke verdeeldheid in een samenleving verergeren. We moeten hier dringend een oplossing voor vinden en er bovendien rekening mee houden dat de technologie en de manier waarop deze wordt gebruikt zal blijven evolueren. Tot die tijd zullen we moeten accepteren dat we niet alles dat we zien meer kunnen geloven.
Hoe kunnen we algoritmes in goede banen leiden?
De ontwikkeling van algoritmen is bedoeld om alles in ons leven te optimaliseren – dingen gemakkelijker te maken, chaos te duiden en levens te redden. Veel experts zijn echter van mening dat algoritmen de controle te veel in handen van regeringen en bedrijven leggen. Ze creëren filterbubbels, beperken onze keuzes en onze creativiteit, leiden tot vooringenomenheid en versterken deze, en vergroten bovendien de ongelijkheid en werkloosheid.
We vertrouwen nu al steeds meer op algoritmen en machine learning. We moeten ons echter afvragen hoe we de situatie – die we zelf hebben gecreëerd – beter kunnen managen en begrijpen. Mens en technologie lijken een soort van partnerschap te zijn aangegaan waarbij algoritmen (nog) geen controle hebben, maar door mensen worden ontwikkeld en bijgeschaafd. De gevolgen daarvan, die voor de een positief zijn, kunnen voor een ander echter negatief zijn. En omdat het achterhalen van oorzaak en gevolg geen eenvoudige taak is, is het belangrijk om deze verhoudingen steeds aan te passen en te proberen te begrijpen hoe algoritmen werken. Als we kijken naar het enorme potentieel van technologie, zal een algemene trend in de richting van positieve resultaten waarschijnlijk de overhand krijgen. Maar om ervoor te zorgen dat algoritmen ons leven blijven verbeteren en om te proberen de nadelen van deze technologie tot een minimum te beperken, is het belangrijk dat we allemaal beter leren begrijpen hoe ze werken, van wat de mogelijke valkuilen zijn en hoe algoritmen het leven van mensen kunnen beïnvloeden. Ook de ethische implicaties van algoritmische systemen moeten we goed begrijpen en overwegen. Gedragswetenschappen, zoals filosofie, antropologie, sociologie en psychologie, kunnen op dat gebied een prachtige, alomvattende lens bieden.
Hippocratische eed voor datawetenschappers, statistici en wiskundigen
Een beetje out-of-the-box denken kan ons ook helpen wanneer er met algoritmen iets fout gaat. Een hippocratische eed voor datawetenschappers en wiskundigen, bijvoorbeeld, net als die we voor artsen hebben. Deze belofte zou iets kunnen zijn in de trant van: ‘Ik zweer bij Hypatia, bij Lovelace, bij Turing, bij Fisher (en/of Bayes) en bij alle statistici en datawetenschappers, om naar mijn beste oordeel en vermogen deze eed te houden’. Hoewel zo’n eed de ontwikkelaars van sommige van deze problematische algoritmen misschien geholpen zou kunnen hebben, had training op het gebied ethiek, privacy en vooringenomenheid ook een groot verschil kunnen maken. Denk bijvoorbeeld ook aan ‘privacy-by-design’, ‘bias-by-design’ en ‘ethics-by-design’ – dataverwerkingsprocedures die tijdens de ontwikkeling in algoritmen worden geïntegreerd.
Als er ooit een ‘hippocratische eed’ komt voor de ontwikkeling van algoritmen, dan zou deze ook een gedragscode moeten bevatten, een uiteenzetting van principes en standaarden. Details over de gegevens waarmee een algoritme wordt getraind, moeten bijvoorbeeld beschikbaar worden gesteld en elk algoritme moet worden geleverd met een verklaring van zijn functie en doelstellingen. Een algoritme moet ook door auditors onderzocht kunnen worden om verschillende effecten te testen. De publieke sector moet ook regelmatig de impact van algoritmen die in besluitvormingsprocessen gebruikt worden evalueren en de resultaten daarvan publiceren. En misschien nog wel het allerbelangrijkste: burgers moeten op de hoogte gesteld worden wanneer beslissingen die hun leven beïnvloeden gebaseerd zijn op – of geïnformeerd zijn door – een algoritme, of dat nu volledig of gedeeltelijk is.
Lijst met principes om het ethisch gebruik van AI-algoritmen te begeleiden
Het wordt hoog tijd dat we vragen stellen over de ethiek van de algoritmen die door organisaties, overheden en bedrijven gebruikt worden. Steeds meer technologiebedrijven formuleren nu principes om hen te begeleiden. Facebook, Google, IBM en Microsoft hebben bijvoorbeeld het Partnership on AI ontwikkeld, een raamwerk gewijd aan het gebruik van ‘AI for social good’ en om de ethische kwesties met betrekking tot kunstmatige intelligentie aan te pakken. DeepMind is een onderzoeksinitiatief gestart over ‘Ethiek en Samenleving’ om bedrijven te helpen ervoor te zorgen dat AI aan de hoogste ethische normen voldoet, waaronder mensenrechten, welzijn en gerechtigheid. Enkele voorbeelden van deze principes zijn:
- Algoritmen die door organisaties worden gebruikt moeten zowel een beschrijving van hun functie en doelstellingen als hun beoogde en mogelijke impact bevatten. Deze beschrijving moet ook aan de gebruikers ter beschikking worden gesteld.
- De beschrijving van de data waarmee een algoritme is en nog steeds wordt getraind – en de aannames die ervoor zijn gebruikt, inclusief een risicobeoordeling voor het omgaan met mogelijke vooroordelen – moeten worden gepubliceerd.
- Organisaties moeten zich houden aan internationaal erkende Beginselen van de Rechten van de Mens. Hun algoritmen moeten in overeenstemming zijn met het recht op eigendom, privacy, vrijheid van gedachte, geweten en godsdiensten, recht op het leven zelf, en recht op een eerlijk proces.
- Organisaties moeten ernaar streven algoritmen te creëren en te gebruiken die voor alle mensen in de wereld het grootst mogelijke voordeel opleveren – algoritmen die het welzijn van mensen optimaliseren door onder andere de gezondheidszorg, het onderwijs en de arbeidskansen te verbeteren.
- Algoritmen moeten worden geleverd met een ‘sandbox-versie’ zodat de impact van verschillende inputcondities door auditors kan worden getest.
- Organisaties moeten beloven de impact van de algoritmen die in besluitvormingsprocessen worden gebruikt te evalueren en de resultaten te publiceren.
- Mensen moeten het recht hebben om te weten of de manier waarop ze behandeld worden, of dat beslissingen die van invloed zijn op hun welzijn, op algoritmen gebaseerd zijn.
- Organisaties moeten bij de ontwikkeling en het gebruik van algoritmen streven naar sociale rechtvaardigheid en algoritmen die bepaalde groepen mensen onevenredig benadelen vermijden.
- Organisaties moeten algoritmen ontwerpen en gebruiken die bijdragen aan de bloei van de mens en de mens in staat stellen karaktereigenschappen als eerlijkheid, empathie, nederigheid, moed en beleefdheid te ontwikkelen.
Algoritme-waakhonden en audits
Algoritmen worden gebruikt om allerlei beslissingen te nemen, maar in sommige gevallen zijn ze bevooroordeeld tegen bepaalde sekse-, klasse- en raciale groepen. Bovendien zijn sommige van deze algoritmen zo complex dat zelfs hun makers vaak niet kunnen achterhalen waarom ze bepaalde beslissingen nemen of aanbevelingen doen. Dit geldt niet alleen voor algoritmen die in de publieke sector worden gebruikt, maar ook voor die in het bedrijfsleven.
Op dit moment worden de algoritmen die we online gebruiken niet of nauwelijks onderworpen aan toezicht door de regelgevende instanties. Uit onderzoek blijkt echter dat meer toezicht en actie door regelgevende instanties noodzakelijk is. Auditors die de besluitvormingsprocessen van algoritmen reguleren zijn van cruciaal belang. Zij moeten onze privacy waarborgen en ons tegen discriminatie, vooringenomenheid en andere mogelijke nadelige gevolgen beschermen. Deze speciale auditors moeten een gedegen kennis van ethiek hebben en een grondig begrip van hoe algoritmen ons leven beïnvloeden. Ze moeten ervoor zorgen dat algoritmen kunnen worden uitgelegd en dat ze ethisch en transparant zijn. Gelukkig zien we steeds meer nieuwe coalities tussen advocaten, activisten, onderzoekers, bezorgd tech-personeel en maatschappelijke organisaties die aan de slag willen met het toezicht op, de verantwoording voor en het voortdurend monitoren van AI-systemen.
Beperking van algoritmische vooringenomenheid
We kunnen inmiddels stellen dat als een dataset compleet, inclusief en alomvattend is er alleen nog vooringenomenheid kan ontstaan door de vooroordelen van de mensen die met deze datasets werken. Het volledig elimineren van vooringenomenheid is echter een stuk complexer dan het lijkt. Je zou bijvoorbeeld ras, geslacht of andere labels uit datasets kunnen verwijderen, maar dat zou de nauwkeurigheid van de resultaten aantasten en het begrip van het model negatief beïnvloeden. De volgende aanbevelingen om algoritmische vertekening te verminderen zijn gebaseerd op de meningen van verschillende experts:
- Meer diversiteit in je teams – Omdat algoritmen niet inclusiever kunnen zijn dan de mensen die ze ontwikkelen, is de meest voor de hand liggende oplossing ervoor te zorgen dat er voldoende diversiteit is binnen je teams. Het is overduidelijk geworden dat er een pijnlijk gebrek is aan diversiteit in de tech-sector – waar algoritmen juist worden ontwikkeld. Uit een onderzoek dat door de Navigating Broader Impacts of AI Research op de NeurIPS machine learning-conferentie in 2020 werd gepresenteerd, blijkt het volgende: hoe homogener het team, des te waarschijnlijker dat een bepaalde voorspellingsfout ontstaat en herhaald wordt. De conclusie is dat meer diverse teams de kans op deze herhalende en zichzelf versterkende vooroordelen verkleinen.
- Gebruik de juiste data om algoritmen te ontwikkelen – De Engelse term ‘garbage in, garbage out’ is specifiek van toepassing op de ontwikkeling van machine learning-algoritmen. Hoe kunnen we verwachten dat een algoritme dat is gebaseerd op een kleine subgroep van de bevolking voor ons allemaal werkt? We moeten ons ervan bewust zijn dat ‘bad data’ meerdere keren de kop kan opsteken en voor problemen kan zorgen. Allereerst in de historische gegevens die worden gebruikt om een algoritme te trainen en vervolgens in de nieuwe gegevens die worden gebruikt om toekomstige beslissingen te nemen. Voor complexe problemen heb je niet alleen meer, maar ook diversere en uitgebreidere data nodig zodat je allesomvattende, inclusieve modellen kunt produceren. We moeten niet vergeten dat een kleine fout tijdens één stap in de ontwikkeling in alle daaropvolgende stappen in het ontwikkelingsproces nog meer fouten zal veroorzaken.
Een laagje nederigheid inbouwen
Algoritmen leren en nemen beslissingen stapsgewijs, naarmate ze vorderingen maken. Ten eerste leren ze door middel van inductief leren, of leerpatronen via datagroepen. Vervolgens beginnen ze voorspellingen te doen door middel van deductief leren, bijvoorbeeld ‘gezien deze input zal het altijd deze output zijn’. Tijdens de productie maken ze gebruik van abductie, zoals bijvoorbeeld de logica dat alle honden een vacht hebben. Volgens de algoritmelogica zou elk dier met een vacht daarom een hond moeten zijn. Het is niet moeilijk om te begrijpen dat deze manier van leren en redeneren – als het niet wordt begeleid – problemen kan veroorzaken. ‘Humble AI’ probeert dit te voorkomen. Als we een algoritme kunnen leren om deze sprongen in het redeneren te vermijden, kunnen ze uiteindelijk wellicht ook hun eigen redenering controleren en ervoor zorgen dat deze in situaties in het echte leven logisch en zinvol is. Algoritmen kunnen dan uiteindelijk ook zelf voorkomen dat foutieve of bevooroordeelde redeneringen deel gaan uitmaken van hun besluitvorming.
Overweeg of automatisering gepast of noodzakelijk is
De algoritmen die wij als mensen gebruiken om taken uit te voeren zijn veel flexibeler dan de rigide en steeds meer alomtegenwoordige computeralgoritmen die ons dagelijks leven domineren. Zelfs flexibele automatisering is aanzienlijk minder flexibel dan mensen. In tegenstelling tot computers kunnen mensen binnen een fractie van een seconde een beslissing nemen – we zijn natuurlijk nog steeds de meest veelzijdige machines van allemaal. Ook moeten we rekening houden met de mogelijkheid dat we steeds meer aan automatiseringstechnologie onderworpen worden, waardoor we steeds minder privacy en vrijheid hebben. Daarnaast kunnen menselijke fouten in het managen van kunstmatige intelligentie de samenleving steeds meer in gevaar brengen en kunnen mensen voor hun (economisch) welzijn steeds afhankelijker worden van automatisering. Het is daarom van cruciaal belang om te bepalen of het al dan niet gepast of noodzakelijk is om te automatiseren, ook met het oog op het terugdringen van algoritmische vertekening.
Het ‘computer-says-no’-dilemma
Volgens trendwatcher en futurist Richard van Hooijdonk is het van belang dat bestuurders en besluitvormers ook weten wat de gevolgen zijn van algoritmische beslissingen. “Uit gesprekken die ik had met overheidsfunctionarissen en enkele kamerleden werd duidelijk dat besluitvorming door algoritmen bij hen niet gebaseerd was op eigen kennis en inzichten. Dit is problematisch. Een begrip van de werking van technologie, en de risico’s en maatschappelijke effecten daaraan kunnen koppelen, is voor goede afweging en besluitvorming van kritiek belang. Daar hebben burgers en consumenten recht op.
Ook binnen het operationele bedrijfs- en overheidsapparaat lijken algoritmen het excuus bij uitstek te zijn om zelf niet na te hoeven denken. Het ‘computer-says-no’-effect komt nu al te vaak voor, maar dankzij de steeds slimmere, zelfdenkende algoritmen hebben ambtenaren en medewerkers straks helemaal geen reden meer om tegen een beslissing of advies van een algoritme in te gaan. Kritisch denkvermogen en menselijk ingrijpen is dan ook cruciaal – zeker in de huidige fase, waarin we immers nog maar aan het experimenteren zijn met deze nieuwe technologie.
Ik ben normaal gesproken niet zo’n voorstander van de ‘toezichteconomie’, maar in dit speciale geval juist des te meer. Toezicht is belangrijk voor het nastreven van rechtvaardigheid en biedt ons in dit geval bovendien leermogelijkheden. De huidige organisaties die dit toezicht uitoefenen, zoals privacy-autoriteiten, hebben hier onvoldoende kennis en niet de juiste cultuur voor. Digitaal toezicht vereist nieuwe kennis over nieuwe ontwikkelingen (techniek, ethiek) en moet anticiperen op situaties die we nog nooit hebben meegemaakt. We moeten dan ook versneld aan de slag met het opzetten van digitale toezichtsorganen die wendbaarder zijn. Ook moet worden nagedacht worden over ‘verticaal’ digitaal toezicht. Algoritmen worden in alle sectoren toegepast. En vaak heel specifiek in de zorg, binnen de logistiek en voor retailers. En allemaal hebben ze een andere toepassing van technologie, ethiek en dus ook handhaving. Dus zal er op het niveau van sectoren (‘verticaal’) met specialisten uit deze sector moeten worden gewerkt aan een veilige maatschappij”.
Een laatste overweging
De snelle ontwikkelingen in kunstmatige intelligentie brengen zowel kansen als gevaren met zich mee en veranderen de manier waarop we leven. Algoritmen kunnen de wereld van het werk – en ons leven – efficiënter, veiliger en comfortabeler maken. Ze kunnen echter ook worden gebruikt om nepnieuws en deepfakes te creëren die niet van echt te onderscheiden zijn. Ze kunnen beslissen wie wel en niet in aanmerking komt voor steun van de overheid en bepalen, al dan niet terecht, wie een potentiële herovertreder is. Bovendien begrijpen mensen in veel gevallen niet meer precies hoe algoritmen tot hun beslissingen komen, aangezien ze steeds complexer worden en de meeste ondoorzichtig zijn. Nu algoritmen een steeds belangrijker onderdeel worden van het moderne bestaan is er ook meer bezorgdheid ontstaan over mogelijke onbedoelde gevolgen. Dit heeft gelukkig geleid tot initiatieven voor het creëren van onbevooroordeelde, ethische en transparante bestuurskaders en -principes. En hoewel niet iedereen het altijd met deze kaders eens is bieden ze cruciale richtlijnen voor de ontwikkeling van ethische datapraktijken. Daarnaast zorgen ze ervoor dat algoritmen in de eerste plaats leiden tot voordelen voor mensen over de hele wereld en bijdragen aan de menselijke bloei.
Share via: