- Om een digitale dystopie te vermijden, moeten we aandacht besteden aan de ethiek van technologie
- We moeten niet focussen op technologie an sich, maar op ethische technologie
- Krijgen we met het ontwikkelen van ethische technologie het vertrouwen van het publiek terug?
- Bedrijven van de toekomst moeten ethisch en maatschappelijk verantwoord zijn
Automatisering en robotica zijn al decennialang belangrijke gamechangers. Geavanceerde technologieën ontwrichten hele sectoren en bieden tools waarmee organisaties flexibeler, slimmer en technologisch geavanceerder kunnen worden, waardoor ze zich beter kunnen voorbereiden op de toekomst. Er wordt echter weinig aandacht besteed aan ethische principes als het gaat om de manier waarop technologieën worden ontwikkeld en gebruikt. Dit geldt vooral voor KI-aangedreven systemen die worden gevoed met enorme hoeveelheden gegevens. Hoe deze gegevens worden verzameld, verzonden en gebruikt om KI-systemen te trainen, zijn allemaal belangrijke overwegingen, aangezien gegevensanalyse leidt tot bruikbare informatie die belangrijk is voor de besluitvorming. En als een KI-aangedreven systeem niet is ontworpen in overeenstemming met ethische kaders, is de kans dat het systeem potentieel ernstige fouten maakt zeer reëel aanwezig.
Het World Economic Forum stelt dat “technologieën een duidelijke morele dimensie hebben – een fundamenteel aspect dat betrekking heeft op waarden, ethiek en normen. Technologieën weerspiegelen de interesses, het gedrag en de verlangens van hun ontwikkelaars en bepalen hoe de mensen die ze gebruiken hun potentieel, identiteit, relaties en doelen kunnen realiseren”. Er bestaat echter nog steeds verwarring over ethische technologie. Welke plek en prioriteit moet dit hebben en waarom zijn deze kwesties nu belangrijker dan ooit? “Ethische technologie is in wezen een gesprek dat zich richt op de relatie tussen technologie en menselijke waarden, de beslissingen die we nemen met betrekking tot technologische vooruitgang en de impact die ze kunnen hebben”, aldus DigitalAgenda, een in het VK gevestigde denktank over schone technologie.
Om een digitale dystopie te vermijden, moeten we aandacht besteden aan de ethiek van technologie
Geavanceerde technologieën maken de weg vrij voor een betere toekomst. Hoewel nieuwe technologieën betere efficiëntie en datagestuurde besluitvorming mogelijk maken, is het ook essentieel om te weten hoe deze technologieën werken. Neem het verzamelen van data, bijvoorbeeld. Mobile providers en social mediasites verzamelen enorme hoeveelheden gegevens en kunnen deze delen met, onder andere, overheidsinstanties, advocatenkantoren en immigratiediensten. Dit wordt meestal gedaan zonder dat gebruikers dit weten. Wanneer er bijvoorbeeld toezicht gehouden wordt op demonstraties of openbare bijeenkomsten en de verzamelde gegevens worden gebruikt om demonstranten of verslaggevers op te sporen, kan dit een schending zijn van bepaalde fundamentele mensenrechten of de grondwettelijke rechten van het land waar dergelijke praktijken plaatsvinden.
Hoewel er in allerlei sectoren indrukwekkende voorbeelden zijn van de voordelen van KI-aangedreven tools, kunnen kwaadwillenden deze tools ook gebruiken voor minder koosjere doeleinden. Bijvoorbeeld om deepfakes te creëren. Deze nepvideo’s zijn vooral gevaarlijk wanneer echte gezichten van invloedrijke mensen gebruikt worden in de content – die dingen zeggen of doen die ze nooit echt hebben gedaan of gezegd. Bewustwording creëren kan gedaan worden door het publiek te informeren over deepfakes en door mensen aan te moedigen om de juistheid van alles wat ze in het nieuws zien met behulp van fact-checkingsites goed te controleren.
Een ander groot probleem met KI-systemen is dat ze vaak raciaal bevooroordeeld zijn. Sommige gezichtsherkenningstools die de politie gebruikt om een verdachte te identificeren, hebben het pijnlijk vaak bij het verkeerde eind, wat kan leiden tot de arrestatie van de verkeerde persoon. Volgens een MIT-onderzoek vertoonden drie commerciële genderherkenningssystemen foutpercentages tot 34 procent in het geval van vrouwen met een donkere huidskleur – een percentage dat bijna 49 keer zo groot is als bij witte mannen. Uit een ander onderzoek bleek dat het foutenpercentage voor Afrikaanse mannen en vrouwen twee orden van grootte hoger was dan voor Oost-Europeanen, die de laagste percentages lieten zien. Een test in een Amerikaanse mugshot-database onthulde dat algoritmen de hoogste foutpercentages hadden bij inheemse Amerikanen en zeer hoge foutenpercentages bij Aziatische en zwarte vrouwen. Zelfs de politiechef van Detroit, James Craig, gaf toe dat gezichtsherkenningstechnologie slechts 3 tot 4 procent van de tijd accuraat is. “Als we alleen op de software zouden afgaan voor het identificeren van personen, zouden we misdaadzaken in 95-97 procent van de gevallen niet oplossen. Dat is als we volledig op de software zouden vertrouwen, wat in strijd zou zijn met ons huidige beleid. Als we alleen deze technologie zouden gebruiken om iemand te identificeren, zou ik zeggen dat het in 96 procent van de gevallen verkeerde identificaties genereert”. Dit betekent dat de technologie nog verre van perfect is en dat ontwikkelaars er aanzienlijk meer tijd en energie in moeten steken om deze tools te verbeteren.
We moeten niet focussen op technologie an sich, maar op ethische technologie
Dankzij de technologische vooruitgang kunnen bedrijven hun doelen gemakkelijker en veel efficiënter bereiken dan een paar decennia geleden. Bedrijven die sterk afhankelijk zijn van slimme technologieën moeten zich niet alleen houden aan overheidsvoorschriften, maar ook bedrijfsbeperkingen stellen. De technologie die ze gebruiken om onder andere internetgebruik, online gedrag en koopgedrag te monitoren kan namelijk de privacy van hun werknemers of klanten in gevaar brengen. We herinneren ons allemaal het enorme datalekschandaal van Cambridge Analytica, waarbij gegevens van individuele Amerikaanse kiezers illegaal werden gebruikt om gepersonaliseerde politieke advertenties te ontwikkelen. Christopher Wylie, die samenwerkte met een academicus van Cambridge University om deze gegevens te verzamelen, onthult dat ze “Facebook gebruikten om miljoenen profielen te verzamelen en daarmee modellen bouwden om uit te buiten wat we over hen wisten waarna wij ons op hun ‘innerlijke demonen’ richtten. Dat was de basis waarop het hele bedrijf is gebouwd”.
Helaas was dit schandaal slechts een momentopname en een klein aspect van een veel groter probleem. Emma Briant, academicus aan het Bard College in New York, gespecialiseerd in het onderzoeken van propaganda, waarschuwt: “De documenten onthullen een veel duidelijker beeld van wat er werkelijk is gebeurd tijdens de Amerikaanse presidentsverkiezingen van 2016, wat een enorme invloed heeft op wat er in 2020 zal gebeuren. Dit is een wereldwijde industrie die niet meer onder controle is, maar dit geeft wel aan wat er gebeurd is met dit ene bedrijf”. Ondanks het feit dat regeringen wetten hebben aangenomen die het gebruik van persoonlijke informatie beperken en mensen enigszins zeggenschap en controle geven over hun persoonlijke informatie op het internet, horen we helaas nog steeds veel te vaak over ernstige datalekken.
Dan zijn er ook nog de problemen met betrekking tot het monitoren van werknemers. Uit een MIT-onderzoek blijkt dat wanneer werknemers weten dat ze worden gemonitord, de winstgevendheid van het bedrijf met maar liefst 7 procent toeneemt, omdat werknemers dan efficiënter aan het werk gaan en zich bewuster zijn van hun werk. Boni Satani, hoofd marketing bij Zestard Technologies, benadrukt dat het gebruik van software voor het monitoren van werknemers verschillende voordelen heeft. “Software voor het monitoren van werknemers kan werkgevers ook waarschuwen wanneer een gebruiker bijvoorbeeld ongeoorloofd toegang heeft tot bepaalde informatie – of dit nu met kwade bedoelingen of per ongeluk gebeurt”. Overmatige toegang tot persoonlijke informatie als medische dossiers, bankrekeningen of persoonlijke correspondentie kan echter gevaarlijk zijn, aangezien dergelijke gegevens op straat kunnen komen te liggen – met alle gevolgen van dien.
Privacyproblematiek is een belangrijke overweging bij de keuze om dergelijke monitoringtools al dan niet te implementeren en bedrijven moeten de voor- en nadelen zorgvuldig tegen elkaar afwegen. Uit het rapport Decoding Organisational DNA van Accenture is gebleken dat iets meer dan 50 procent van de werknemers die aan een enquête deelnamen van mening is dat het gebruik van monitoringtools het vertrouwen schaadt. Maar liefst 64 procent is bezorgd over het feit dat de veiligheid van persoonlijke gegevens van werknemers in gevaar zou kunnen komen, vooral met het oog op recente wereldwijde datalekken. Anderzijds is het zo dat wel 92 procent van de werknemers “openstaat voor het verzamelen van gegevens over hen en hun werk, maar alleen als dit hun prestaties of welzijn verbetert of andere persoonlijke voordelen oplevert”. Aangezien er voor grote bedrijven wereldwijd $3,1 biljoen aan toekomstige omzetgroei op het spel staat, lijdt het geen twijfel dat er meer aandacht zal worden besteed aan het toepassen van verantwoorde datastrategieën die het vertrouwen bij werknemers in stand houdt.
Krijgen we met het ontwikkelen van ethische technologie het vertrouwen van het publiek terug?
Helaas is er nog geen praktische handleiding voor het ontwikkelen van ethische technologie, maar steeds meer bedrijven zoeken wel naar mogelijkheden om dit op de beste manier te doen. Om privacyproblemen in verband met nieuw ontwikkelde tech-oplossingen te voorkomen, is het van cruciaal belang om veel meer nadruk te leggen op beveiliging bij het ontwerpen van een product of service. Gelukkig zijn er tools om ingenieurs en ontwikkelaars te helpen problemen met betrekking tot vooroordelen en discriminatie te vermijden of de ontwikkeling van verslavende technologie die de menselijke psyche negatief beïnvloedt aan banden te leggen. Een van de tools die daarbij helpt is Ethical OS. Het bevat een checklist met 8 risicozones, 14 scenario’s die kunnen helpen een beeld te krijgen van de langetermijneffecten van het product dat je ontwikkelt, en 7 toekomstbestendige strategieën. Steeds meer bedrijven maken gebruik van deze of vergelijkbare tools om ervoor te zorgen dat ze ethische technologie ontwikkelen.
Marc-Loyd Ramniceanu, mede-oprichter van NetCloak, vertelt bijvoorbeeld dat ze “het Ethical OS-raamwerk toepassen om niet alleen onze strategie en ons proces vorm te geven, maar ook onze kernwaarden”. Nicklas Bergman is een durfkapitalist bij Intergalactic Industries, een Zweedse investeringsmaatschappij die zich richt op nanotechnologieën, genbewerking en breininterfacetechnologieën. Hij vertelt dat hij zich ervan bewust is dat ethische aspecten van technologie vaak over het hoofd worden gezien. “We hebben meer tijd, ruimte en tools nodig om ons op deze kwesties te richten. EthicalOS is al een geweldige set tools voor iedereen die de uitdaging aangaat om te navigeren in een wereld waar technologie moeilijk te voorspellen gevolgen kan hebben”.
Bedrijven van de toekomst moeten ethisch en maatschappelijk verantwoord zijn
De opkomst van de digitalisering heeft niet alleen enorm veel coole, geavanceerde technologie opgeleverd die we dagelijks gebruiken, maar het heeft ons er ook van bewust gemaakt dat technologie – zoals bijvoorbeeld kunstmatige intelligentie – wordt gevoed met enorme hoeveelheden data, waaronder ook persoonlijke informatie. En deze informatie wordt vaak gedeeld of verkocht zonder ons medeweten of onze toestemming. Gelukkig nemen overheden het voortouw door wet- en regelgeving te implementeren om de privacy van gebruikers te beschermen. Daarnaast geven steeds meer bedrijven prioriteit aan de eisen van hun werknemers en consumenten om hun persoonlijke gegevens te beschermen. Ethische en sociale verantwoordelijkheid op de werkplek helpen ervoor te zorgen dat leiders ook in tijden van crisis een sterk moreel kompas behouden. Aandacht voor bedrijfsethiek biedt ook tal van andere voordelen. Bedrijven die ethische besluitvorming toepassen zullen ook een positieve invloed hebben op de productiviteit, de rechten en het welzijn van werknemers en het vertrouwen van de consument.
Share via: