Leiderschap in het AI-tijdperk:  ethische valkuilen vermijden

Foto van Richard van Hooijdonk
Richard van Hooijdonk
Bedrijven haasten zich om AI in te voeren maar vergeten vaak goede ethische kaders te ontwikkelen. Hoe kunnen leiders verantwoord innoveren om hun toekomst veilig te stellen?

Met de adem van de concurrentie in de nek en het vooruitzicht van grote operationele winsten, haasten bedrijven in elke sector zich om AI te integreren in hun processen. De snelheid waarmee ze dat doen is verbluffend. Wat twee jaar geleden nog maanden in beslag nam, wordt nu in weken, soms zelfs dagen, uitgerold. Deze haastige spoed leidt echter tot blinde vlekken. Vaak wordt er gefocust op deadlines en prestaties, terwijl de ethische aspecten pas later aan bod komen. AI wordt gebruikt voor werving, klantcontact en bedrijfsprocessen, maar er wordt niet altijd stilgestaan bij de consequenties.

AI-systemen zonder duidelijke ethische grenzen zijn een gevaarlijke cocktail. Ze kunnen leiden tot discriminatie, schending van privacy, ongelijke behandeling van klanten en uiteindelijk zelfs tot een ontwrichte samenleving waarin macht onevenredig verdeeld is. Het moment is voor leiders aangebroken om actie te ondernemen en hun organisaties met een doordacht beleid door deze uitdagingen te loodsen.

De volgende stappen bieden een praktische handleiding voor het ontwikkelen van ethische AI-praktijken. Deze maatregelen beschermen niet alleen de bedrijfsbelangen, maar ook de maatschappelijke waarden waarop onze samenleving is gebouwd. Zo zorgen we ervoor dat innovatie, hoe snel die ook gaat, onze fundamentele principes niet uitholt.

“We moeten ervoor zorgen dat in een wereld die wordt aangestuurd door algoritmen, die algoritmen ook echt het juiste doen.”

Marco Iansiti, hoogleraar Harvard Business School

AI en ethiek

Het gebruik van AI in het bedrijfsleven brengt ethische dilemma’s met zich mee waar we zorgvuldig mee om moeten gaan.

De onrust over AI in het bedrijfsleven spitst zich vooral toe op één punt: de ontwrichting van de arbeidsmarkt. Oftewel de reële angst dat machines onze banen gaan overnemen. Uit een onderzoek dat ResumeTemplates in 2024 uitvoerde, blijkt dat 30% van de Amerikaanse bedrijven een deel van hun werknemers al vervangen heeft door AI-tools. Het World Economic Forum (WEF) gaat in zijn prognoses nog een stap verder en schat dat wereldwijd zo’n 85 miljoen banen gaan verdwijnen door AI. Diezelfde WEF-analyse belicht echter ook iets hoopgevends: de komst van maar liefst 97 miljoen nieuwe banen. Het gaat  om functies waarvoor niet alleen geavanceerde technische kennis nodig is, maar ook typisch menselijke vaardigheden, zoals leiderschap, creativiteit en emotionele intelligentie.

Het juiste doen

De veranderingen die we in personeelsbestanden gaan zien zijn groot, en toch zijn ze maar een onderdeel van een veel complexer ethisch vraagstuk. AI gebruikt algoritmes om bedrijfsprocessen te versnellen en te verbeteren, maar deze kunnen (onbedoeld) subtiele discriminatie veroorzaken, met verstrekkende gevolgen voor de hele organisatie. Neem bijvoorbeeld een AI-systeem voor het screenen van cv’s, waarmee duizenden sollicitaties razendsnel doorzocht worden op basis van vooraf ingestelde criteria. Het idee erachter is dat recruiters hiermee veel sneller gekwalificeerde kandidaten vinden, in wie ze zich vervolgens écht kunnen verdiepen.

Maar wanneer zo’n systeem leert van wervingsgegevens uit het verleden – gegevens die bijvoorbeeld de onevenwichtige verhouding tussen mannen en vrouwen in de financiële sector of de verpleging weerspiegelen – begint het onvermijdelijk diezelfde patronen voort te zetten. Mannelijke kandidaten kunnen dan steevast de voorkeur krijgen voor financiële functies, terwijl gekwalificeerde vrouwen eruit gefilterd worden nog voordat een mens hun cv onder ogen krijgt. “We moeten ervoor zorgen dat in een wereld die wordt aangestuurd door algoritmen, die algoritmen ook echt het juiste doen”, zegt Marco Iansiti, hoogleraar aan de Harvard Business School. “Ze moeten doen wat wettelijk is toegestaan. En wat ethisch is.”

Een groot privacyprobleem

Privacy is nog zo’n complex probleem dat organisaties vaak onderschatten. Om goed te kunnen werken, moeten AI-systemen enorme hoeveelheden persoonlijke en beroepsmatige gegevens van werknemers verzamelen en analyseren. Elk stukje data levert potentiële risico’s op: ongeautoriseerde toegang, datalekken, of misbruik door mensen met slechte bedoelingen, zowel binnen als buiten de organisatie. “We hebben een groot privacyprobleem nu onze economie steeds digitaler wordt”, zegt Iansiti. “En interessant genoeg raken privacy- en cyberbeveiligingsproblemen in sommige opzichten steeds meer met elkaar verweven. Een van de grootste uitdagingen met data is niet zozeer wat een bedrijf opzettelijk doet, maar wat malafide personen doen die illegaal van buitenaf toegang krijgen tot de netwerken van het bedrijf. Ze stelen allerlei persoonlijke gegevens, waar ze vervolgens veel schade mee kunnen berokkenen.”

In een enquête van Deloitte uit 2024 onder meer dan 1800 deskundigen noemt 54 procent van de respondenten generatieve AI als de technologie met het grootste risico op ethisch gebied. Hun specifieke zorgen? Privacy van gegevens (40%), gevolgd door bias, ofwel vooringenomenheid (34%), en het verdwijnen van banen (22%). Je zou denken dat bedrijven hierop reageren met duidelijke richtlijnen. Niets is minder waar. Slechts 27% van de organisaties heeft specifieke ethische regels voor generatieve AI. Deze verrassende tegenstelling tussen weten en doen laat zien dat veel bedrijven nog een lange weg te gaan hebben als het aankomt op verantwoord AI-gebruik.

“Als de ethische kant een bijzaak wordt, ben je niet aan het innoveren, maar ben je bias op grote schaal aan het automatiseren.”

Gurpreet Bajaj Singh, Master Trainer en Facilitator bij Kaleidoskope

De uitdagingen van AI-governance

Wat houdt bedrijven tegen om AI op een ethische manier In te zetten?

Hoewel de principes van AI-governance in theorie simpel lijken, blijkt de toepassing ervan in de praktijk een stuk ingewikkelder te liggen. Organisaties merken al snel dat het opzetten van goede governance-structuren een hachelijke onderneming is: ze moeten zich een weg banen door een wereld vol voortdurend veranderende eisen, tegenstrijdige standaarden en onvoorziene uitdagingen waar traditionele managementkaders geen raad mee weten. Het grootste probleem is dat de regelgeving vaak achterloopt op de snelle ontwikkeling van de technologie.

AI ontwikkelt zich met een ongekende snelheid. Doordat er technisch steeds meer kan, kunnen we het op juridisch en ethisch gebied nauwelijks bijbenen. Beleidsmakers en toezichthouders lopen voortdurend achter de feiten aan. Ze moeten zich steeds weer buigen over innovaties die inmiddels al zijn geïmplementeerd en geïntegreerd in bedrijfsprocessen. Bedrijven die zich in deze wetteloze zone bevinden, lopen een verhoogd risico op AI-misbruik, lacunes in verantwoording en ethische dilemma’s die plotseling ontstaan. Volgens het IBM Institute for Business Value noemt 80% van de managers het ontbreken van duidelijke standaarden voor ethiek, uitlegbaarheid, vertrouwen en bias als het grootste obstakel bij het implementeren van generatieve AI.

Een wildwest-situatie

Wat alles nog complexer maakt, is dat er wereldwijd geen overeenstemming is over de regulering van AI. Omdat landen de regulering vanuit verschillende visies benaderen, is er een wirwar van regels waar organisaties zich doorheen moeten navigeren. De EU heeft gekozen voor uitgebreide regelgeving via de AI-wet, met strenge eisen voor naleving en toezicht. De VS neigt, niet verrassend, naar zelfregulering door de sector, waarbij van bedrijven wordt verwacht dat ze hun eigen standaarden ontwikkelen en handhaven.

Door al die verschillende benaderingen is het voor multinationals bijna onmogelijk om hun beleid te verankeren in één universele standaard. “Het is nu een beetje een wildwest-situatie met AI en regelgeving. Bedrijven gebruiken AI-technologieën op grote schaal, maar er zijn geen duidelijke regels om algoritmen te reguleren en onderzoekers te helpen om bias in datasets te vermijden”, zegt Dr. Timnit Gebru, oprichter en directeur van The Distributed AI Research Institute.

Gebrek aan transparantie

Ook de technische ondoorzichtigheid maakt het complex. De meeste AI-systemen zijn ‘black boxes’; hun besluitvorming is zelfs voor de ontwikkelaars ervan ondoorgrondelijk. Of een algoritme nu beslist over een aanstelling, een lening toekent of een veiligheidsrisico aangeeft, het is vaak onmogelijk om te achterhalen hoe het tot die conclusie kwam. Vergelijk het met het aansturen van een uiterst bekwame medewerker die voortdurend resultaten boekt, maar nooit kan uitleggen hoe hij tot die resultaten is gekomen. Dit gebrek aan transparantie ondermijnt het vertrouwen en maakt goed toezicht heel moeilijk.

Daarnaast is er nog de lastige kwestie rond aansprakelijkheid. Zodra een AI-systeem schade aanricht, of het nu komt door bevooroordeelde beslissingen, schendingen van de privacy of operationele fouten, is het bepalen van de schuldige een juridische en ethische hersenbreker. Ligt de aansprakelijkheid bij de softwareontwikkelaars die de algoritmes creëerden, bij de organisatie die ze gebruikte, of bij de managers die op de resultaten vertrouwden? De huidige wetgeving biedt hierover weinig duidelijkheid, vooral als het gaat om autonome systemen die beslissingen nemen zonder direct menselijk toezicht.

De innovatievalkuil

Het misschien wel lastigste vraagstuk draait om gegevensprivacy, beveiliging en risicobeheer. Om goed te kunnen presteren, hebben AI-systemen gigantische hoeveelheden data nodig. Dit roept belangrijke vragen op over de manier waarop we gegevens verzamelen, bewaren en gebruiken. Elke dataset is een waardevol bedrijfsmiddel, maar vormt ook een risico, zeker nu cyberaanvallen steeds geraffineerder worden. De belangen worden nog groter als je bedenkt dat datalekken met AI-systemen niet alleen opgeslagen informatie kunnen blootleggen, maar ook patronen en inzichten kunnen onthullen die nooit bedoeld waren voor de ogen van derden.

Recent onderzoek laat zien met welke uitdagingen organisaties worstelen. Uit een PwC-enquête die in 2024 onder Amerikaanse leidinggevenden werd gehouden, blijkt bijvoorbeeld dat ondanks dat 73% van hen generatieve AI toepast of dat binnenkort wil gaan doen, slechts 58% de risico’s ervan in kaart heeft gebracht. Gurpreet Bajaj Singh, Master Trainer en Facilitator bij Kaleidoskope, merkt op: “In mijn werk met leiders die AI omarmen, zie ik dat te veel van hen in de zogenaamde ‘AI-innovatievalkuil’ lopen. Ze storten zich er halsoverkop in zonder te kijken naar de ethische gevaren die op de loer liggen. Als de ethische kant een bijzaak wordt, ben je niet aan het innoveren, maar ben je bias op grote schaal aan het automatiseren. Daarom daag ik teams uit: weersta de druk om direct te implementeren. Neem een adempauze. Stel jezelf, je teams en AI-leveranciers eerst de moeilijke vragen. Want je hebt er niets aan om als eerste de markt te betreden als je ook de eerste bent die op ethisch gebied de mist in gaat.”

Best practices voor het ethisch inzetten van AI

Hoe bouw je een goed kader voor ethische AI?

Ethische AI begint met verantwoordelijk leiderschap. Leidinggevenden die ethische vraagstukken afschuiven op technische teams  of compliance-afdelingen, geven het signaal af dat ethiek voor hen van ondergeschikt belang is. Goede leiders nemen persoonlijke verantwoordelijkheid voor de resultaten van AI. Ze zorgen voor heldere verantwoordingslijnen, zodat beslissingen van de directie direct gekoppeld zijn aan de impact van algoritmen. Dit betekent ook dat ze specifieke managers aanwijzen als toezichthouders van AI-ethiek: mensen met de bevoegdheid om belangrijke keuzes te sturen én de verantwoordelijkheid om rechtstreeks aan het senior management te rapporteren over ethische risico’s en resultaten.

Om er dus voor te zorgen dat AI-ethiek écht serieus wordt genomen, moet je het vastleggen in de bestuursstructuur van je bedrijf. Zo zorg je ervoor dat er doorlopend aandacht voor is en het niet beperkt blijft tot incidentele discussies. De Raad van Bestuur en het management moeten ethische risico’s met dezelfde grondigheid bekijken als de financiële cijfers. In de praktijk kan dit er als volgt uitzien: bij elke kwartaalvergadering is AI-ethiek een standaard agendapunt dat gebracht wordt  door die managers die belast zijn met de verantwoorde implementatie van AI. Tijdens deze vergaderingen wordt niet alleen gekeken naar wat er met de AI-systemen is bereikt, maar ook naar hoe die resultaten zijn behaald en welke onbedoelde neveneffecten zich misschien hebben voorgedaan.

Van controleren naar vooruitkijken

Om goed toezicht te kunnen houden, heb je een mix van mensen aan de besluitvormingstafel nodig. Denk bijvoorbeeld aan het opzetten van een AI-bestuurscomité met leden uit verschillende vakgebieden: ingenieurs, ethici, HR-mensen, juridische en regelgevende experts, bedrijfsstrategen en risicomanagementspecialisten. Door regelmatig samen te komen, kunnen zij AI-projecten vanuit alle kanten bekijken en beoordelen. Voordat een project van start gaat, kijken ze naar de technische prestaties en de ethische implicaties, maar ook naar de naleving van de wet en de klantervaring. Na de lancering kijken ze of de resultaten in de praktijk overeenkomen met de oorspronkelijke bedoelingen. De commissie zorgt voor gedeelde verantwoording en spreidt de expertise, zodat niet één persoon de last van alwetendheid hoeft te dragen.

Een van de krachtigste maar onderbenutte tools voor ethische AI-implementatie is systematisch vooruitkijken. Dat betekent bewust anticiperen op wat er mis zou kunnen gaan. De meeste organisaties zijn goed in het analyseren van incidenten achteraf, maar hebben moeite met het proactief identificeren van risico’s. Met scenario-oefeningen of ‘pre-mortems’ voor AI-systemen, kunnen teams vroegtijdig de potentiële kwetsbaarheden en ethische risico’s van hun AI-systemen blootleggen, zodat ze waarborgen in kunnen bouwen. “Een algoritme kan een bedrijf helpen zijn financiële doelen te bereiken, maar kan het op de lange termijn schade berokkenen,” zegt Walid Hejazi, hoogleraar economische analyse en beleid aan de Rotman School of Management in Toronto. “Het senior management moet richtlijnen opstellen voor het gebruik van AI. Je moet vragen stellen als: welke gegevens worden gebruikt en voor welke doeleinden? Welke toestemmingen worden verkregen en hoe worden de gegevens beveiligd?”

Ethisch gedrag belonen

Het laatste onderdeel van een goede implementatie is het afstemmen van beloningsstructuren op ethische doelen. Organisaties meten wat ze belangrijk vinden en belonen wat ze meten. Door naast traditionele KPI’s, zoals omzetgroei en marktaandeel, ook gebruikersvertrouwen, algoritmische eerlijkheid en systeemtransparantie te meten, geef je aan dat ook dit prioriteiten zijn. Projectteams van wie de ethische prestaties worden meegenomen in de beoordeling en beloning, zullen daar rekening mee houden in hun besluitvormingsprocessen. Een machine learning-ingenieur die weet dat zijn bonus afhangt van het verminderen van bias, gaat anders te werk bij het ontwikkelen van modellen.

Om goede meetmethodes te ontwikkelen, moet je goed nadenken over hoe ethisch handelen er in een specifieke context uitziet. Hoe meet je eerlijkheid in algoritmes voor het aannemen van personeel? Wanneer is een aanbevelingssysteem transparant genoeg? En hoe peil je het vertrouwen van gebruikers op een manier die verder gaat dan een oppervlakkige tevredenheidsscore? Door deze vragen te beantwoorden, worden organisaties gedwongen de sprong te maken van vage ethische beloftes naar concrete, meetbare standaarden. Zo krijgen ze een kompas voor zowel de dagelijkse besluitvorming als de strategische koers op de lange termijn.

Stappen om AI ethisch te implementeren

AI inzetten als daadwerkelijke toevoeging voor je bedrijf.

Voordat een AI-systeem wordt ingezet is het belangrijk goed te kijken naar de organisatorische context en behoeften. Denk na – op basis van de sector, grootte en samenstelling van je bedrijf – over welke AI-oplossingen zinvol zijn en welke misschien onnodige risico’s met zich meebrengen. Stel jezelf ook een paar belangrijke vragen over de effectiviteit en geschiktheid. Welke specifieke bedrijfsproblemen wil je oplossen en bieden AI-tools echt de beste oplossing? Als je besluit om met AI aan de slag te gaan, wie binnen je organisatie moet dan toegang hebben tot deze systemen en welke training of begeleiding hebben zij nodig? Hoe kun je het potentieel van AI maximaal benutten en tegelijkertijd de veiligheid waarborgen? Met deze vragen voorkom je de bekende valkuil: AI inzetten omdat het kan, in plaats van omdat het een echte toevoeging is voor je bedrijf.

Voorbereid zijn op de onvoorspelbare kant van AI

Een succesvolle implementatie vraagt ook om een goed corporate governance-beleid dat rekening houdt met het transformerende en onvoorspelbare karakter van AI. In tegenstelling tot traditionele software die zich na implementatie voorspelbaar gedraagt, evolueren AI-systemen en leren ze steeds bij, waardoor ze vermogens of vooroordelen (bias) kunnen ontwikkelen die tijdens de eerste tests nog niet aanwezig waren. Een effectief governance-systeem is hierop voorbereid en voorziet in mechanismen voor voortdurende controle en aanpassing. Door een formeel AI-beleid op te stellen binnen je compliance-kader, zorg je voor verantwoordelijkheid en consistentie binnen de hele organisatie. Dit beleid moet niet alleen betrekking hebben op wat AI-systemen kunnen doen, maar ook op hoe ze dat moeten doen. Het moet acceptabele gebruiksscenario’s, vereisten voor gegevensverwerking, goedkeuringsprocessen voor nieuwe implementaties en protocollen voor het monitoren van de systeemprestaties door de tijd heen bevatten.

Leidinggevenden spelen een cruciale rol bij het zetten van de toon voor ethische AI-toepassingen in de hele organisatie. Dit betekent dat je, ook al schrijf je zelf geen code, genoeg kennis moet hebben van de mogelijkheden en beperkingen van AI om weloverwogen strategische keuzes te kunnen maken. Verantwoordelijk leiderschap houdt onder meer in dat je zorgt voor transparante implementatieprocessen, de voordelen van AI duidelijk communiceert aan zowel medewerkers als investeerders, en robuuste monitoringsystemen opzet om potentiële risico’s te identificeren voordat ze problemen worden. De integratie van AI moet eigenlijk benaderd worden zoals elke andere grote operationele verandering. Je rolt immers ook geen nieuw productieproces of financieel systeem uit zonder de gevolgen te overzien en de prestaties nauwlettend te volgen.

Medewerkers meekrijgen

Als AI ter sprake komt, is er één ding dat werknemers het meest bezighoudt: ‘Wat betekent dit voor mijn baan?’ De angst dat AI hun baan overbodig zal maken, kan verandering flink in de weg staan. Open en eerlijke communicatie is daarom heel belangrijk. Het helpt niet alleen om de zorgen te erkennen, maar ook om mensen mee te krijgen in het proces van verandering. Als medewerkers begrijpen wat de veranderingen voor hen persoonlijk betekenen en voelen dat ze enige controle hebben over hoe ze zich aan de nieuwe situatie aanpassen, zullen ze de nieuwe technologie eerder verwelkomen dan afwijzen.

Personeelsselectie en training maken het plaatje compleet voor een ethische AI-implementatie. Om AI succesvol te integreren, heb je medewerkers nodig die over de juiste nieuwe vaardigheden beschikken. Kies, als je kandidaten beoordeelt voor een openstaande vacature of promotie, voor mensen die flexibel zijn, nieuwsgierig en openstaan voor verandering. Andere waardevolle eigenschappen zijn de moed om misinformatie aan te vechten, gemotiveerdheid om continu te blijven leren, een sterk kritisch denkvermogen en ethisch bewustzijn. Deze kenmerken zijn misschien nog wel belangrijker dan technische kennis, die tenslotte aangeleerd kan worden. Ze bepalen namelijk hoe iemand op de lange termijn met de uitdagingen van AI omgaat.

Elk van deze stappen versterkt de andere. Samen vormen ze een complete methode voor ethisch AI-leiderschap. Inzicht in de toepassing bepaalt de implementatiestrategie. Een goede implementatie zorgt voor verantwoord leiderschap. Betrokkenheid van het management stimuleert preventieve maatregelen. Robuuste maatregelen maken eerlijke communicatie mogelijk. Effectieve communicatie helpt bij de ontwikkeling van medewerkers. Goed ontwikkelde medewerkers zorgen voor meer begrip binnen de organisatie over de mogelijkheden van AI. De cirkel is rond: de organisatie wordt via deze stappen steeds beter in het ethisch uitrollen van AI, met behoud van aandacht voor de menselijke waarden en de bedrijfsdoelen.

Share via
Copy link