In het kort
De luchtvaartsector zit in een spagaat: de techniek ontwikkelt zich sneller dan de wet- en regelgeving kan bijbenen. Hoewel AI dé oplossing lijkt voor het pilotentekort en andere uitdagingen, zijn er nog veel prangende vragen over aansprakelijkheid en certificering. Wie is er bijvoorbeeld verantwoordelijk als een algoritme een cruciale beslissing neemt die in een ramp eindigt?
- Het vliegverkeer kwam na de pandemie veel sneller op gang dan verwacht, maar nu dreigt een groot tekort aan piloten de groei te belemmeren.
- Er wordt bij certificering vanuit gegaan dat vliegtuigsystemen ongewijzigd blijven, maar AI leert en past zichzelf constant aan.
- Verzekeraars branden hun vingers niet aan zelfvliegende vliegtuigen totdat er duidelijk is wie aansprakelijk is als het misgaat.
- Het strafrecht weet niet wat het aan moet met algoritmes die mensen verwonden of doden.
- Doordat de regelgeving wereldwijd verschilt, kan AI die getraind is volgens de regels van het ene rechtsgebied, de regels van een ander rechtsgebied overtreden. Voorlopig zijn er nog geen wereldwijde standaarden in zicht.
- Intussen gaan de tests door, met bedrijven als GE Aerospace, Merlin Labs en het DARWIN-project die AI-systemen ontwikkelen die instructies van de verkeerstoren begrijpen en zelf noodsituaties kunnen oplossen.
De sector zit in een lastig parket en een simpele oplossing is er niet. Als AI te snel wordt uitgerold, dan eindig je met luchtvaartmaatschappijen die niet meer te verzekeren zijn. Ga je te traag? Dan vliegen de concurrenten je voorbij en mis je de boot. Het komende decennium zal uitwijzen of AI in de luchtvaart een tool voor meer veiligheid wordt, of dat we een waarschuwend verhaal krijgen over het gebruik van krachtige technologieën voordat de samenleving er klaar voor is om ze te reguleren.
Stel je het volgende, niet ondenkbare, scenario voor: een vlucht van Frankfurt naar Londen komt op 10.700 meter hoogte in onverwachte turbulentie terecht. Zestien mensen raken gewond, waarvan drie ernstig. Uit het onderzoek blijkt dat een AI-systeem voor routeoptimalisatie een vliegroute had voorgesteld die op papier korter en zuiniger was, maar dwars door een atmosferische storing ging die het systeem verkeerd had geïnterpreteerd of verwaarloosd ten gunste van efficiëntie. De luchtvaartmaatschappij houdt de leverancier van de AI verantwoordelijk. De leverancier op zijn beurt wijst naar de tekortkomingen in de trainingsdata die ze kregen. De toezichthouder vraagt zich af waarom de luchtvaartmaatschappij die technologie in gebruik heeft genomen zonder robuuste toezichtprotocollen. Er volgen rechtszaken. De verzekeringspremies schieten omhoog. En die ene vraag blijft hangen: als een algoritme een beslissing neemt die mensen schaadt, bij wie ligt de verantwoordelijkheid dan?
De luchtvaart is altijd al een walhalla geweest voor het testen van geavanceerde technologie. Denk aan by-wire-besturingssystemen, satellietnavigatie of algoritmes voor onderhoud: de sector gebruikt al heel lang technieken die ooit baanbrekend waren, en maakt ze routine. Maar AI is net even anders. In tegenstelling tot eerdere innovaties, waarbij faalmodi uitgebreid in kaart konden worden gebracht en er eindeloos getest kon worden, kunnen AI-systemen zich onvoorspelbaar gedragen wanneer ze te maken krijgen met situaties die ze in hun trainingsdata niet zijn tegengekomen. Een vliegtuig dat voor kritieke functies op AI vertrouwt, wordt in zekere zin minder voorspelbaar dan de puur mechanische of op software gebaseerde voorgangers. En die onzekerheid ligt nogal gevoelig in een sector waar elk systeem betrouwbaar moet functioneren, tijdens miljoenen vluchten, onder alle mogelijke omstandigheden. Daar is geen ruimte voor dat ‘beetje bij beetje bijleren’ dat in minder belangrijke domeinen prima kan.
Een blik op de luchtvaartsector van vandaag
Vormt AI de sleutel tot het oplossen van het pilotentekort en het bijbenen van onze enorme reislust?
Toen de pandemie in 2020 vliegtuigen aan de grond hield, voorspelden analisten dat het lang zou duren voordat het vliegverkeer weer op gang zou komen. Volgens sommige schattingen zou het misschien wel tien jaar duren voordat we weer net zoveel passagiers zouden zien als in 2019. Hadden ze het even mis! In 2024 zwermden er op de Europese luchthavens meer dan vijf miljard reizigers rond. Dat is een stijging van 7,4% vergeleken met het jaar ervoor, en overtreft de drukte van vóór de pandemie. Het is geen goed nieuws voor het klimaat, maar de vraag naar vliegreizen zal de komende twintig jaar naar verwachting met 4,3% stijgen. Luchtvaartmaatschappijen die hadden gerekend op een langzaam herstel, moesten plots alles op alles zetten om meer vluchten in te lassen en hun routes uit te breiden. Dat is onder normale omstandigheden al een hele uitdaging, maar wordt nog lastiger doordat er een groot tekort aan piloten is.
De pilotencrisis
De opleiding voor commercieel piloot kost veel geld en natuurlijk tijd. In de VS duurt het proces een jaar of twee en kan het meer dan 100.000 dollar kosten; een investering die veel mensen al afschrikt voordat ze eraan beginnen. Bovendien eist de Federal Aviation Administration (FAA) dat copiloten 1500 vlieguren maken voordat ze een Air Transport Pilot-certificaat kunnen krijgen. Daardoor duurt het vaak nog twee jaar extra voordat men als volwaardig verkeersvlieger aan de slag mag. Om het probleem nog groter te maken, kan de aanwas van nieuwe piloten de uitstroom niet bijbenen. De FAA voorspelt dat er tot 2042 jaarlijks zo’n 4300 piloten met pensioen zullen gaan, een trend die ook in Europa te zien is. Boeing schat dat er in 2044 wereldwijd behoefte zal zijn aan 660.000 nieuwe commerciële piloten.
Sommige luchtvaartmaatschappijen spelen op dit tekort in door hun werving op te schroeven en de lat voor nieuw personeel iets lager te leggen. Grote luchtvaartmaatschappijen die vroeger bijvoorbeeld vereisten dat je de nationale taal vloeiend sprak, zijn nu wat soepeler met die eis om meer kandidaten te kunnen aantrekken. Deze maatregelen zijn echter niet genoeg, en dat roept de vraag op of AI en meer automatisering in de cockpit kunnen helpen om het tekort op te vangen. Waar andere sectoren AI gretig hebben ingevoerd om het tekort aan arbeidskrachten op te vangen, blijven luchtvaartmaatschappijen terughoudend en blijft de toepassing van AI beperkt. Dan Bubb, docent commerciële luchtvaart aan de Universiteit van Nevada in Las Vegas, gelooft niet dat AI menselijke piloten goed kan vervangen: “Ik twijfel er niet aan dat AI het vliegen efficiënter zal maken, zowel wat betreft tijd als brandstofverbruik, maar het zal mensen niet vervangen.”
AI in de cockpit
Er worden geavanceerde systemen getest die met de luchtverkeersleiding communiceren en zelfstandig noodsituaties oplossen.
Ondanks de terughoudendheid in de luchtvaartsector zijn er wel experimenten met AI gaande. GE Aerospace werkt sinds kort samen met Merlin Labs aan AI-integratie in zijn luchtvaartsystemen, een stap die blijk geeft van een groot vertrouwen in autonome vliegtechnologie. Merlin Labs is al sinds 2019 bezig met het testen van ‘vliegtuig-agnostische’ AI, en de technologie is inmiddels behoorlijk geavanceerd. De Merlin Pilot luistert naar instructies van de luchtverkeersleiding via natuurlijke taalverwerking en vertaalt die verbale commando’s direct naar vliegacties. Het systeem werkt volledig aan boord, zonder gebruik te maken van GPS of grondverbindingen, en gebruikt zijn eigen sensoren om in realtime beslissingen te nemen. Voorlopig blijven menselijke piloten aan het roer, houden ze toezicht op het systeem en staan ze klaar om in te grijpen wanneer dat nodig is. Maar GE en Merlin denken al na over naar vluchten met één piloot en misschien uiteindelijk volledig autonome vluchten waarbij mensen het systeem vanaf de grond in de gaten houden.
In Europa heeft het DARWIN-project onlangs al de eerste bemande vluchten voltooid met een AI-gestuurde digitale copiloot. Dit systeem is ontworpen om de werkdruk van piloten te verminderen en de veiligheid te verbeteren bij vluchten met minder bemanning of met één piloot. Tijdens de tests handelde het DARWIN-systeem meerdere gesimuleerde noodsituaties af die normaal gesproken onmiddellijke menselijke tussenkomst vereisen. Toen het systeem signaleerde dat de piloot slaperig of onwel werd, gaf het waarschuwingen af en begon het proactief taken te herverdelen. Een medisch noodgeval van een passagier activeerde verschillende protocollen, waarbij de AI assisteerde bij de coördinatie van de hulpverlening en tegelijkertijd toezicht hield op de vliegveiligheid. Heel indrukwekkend was dat het systeem met succes automatische landingsprocedures uitvoerde toen de situatie dat vereiste, waarbij het vliegtuig zonder menselijke tussenkomst van kruishoogte naar de landingsbaan werd gebracht.
Het juridische vacuüm
Als er iets misgaat, wie is er dan verantwoordelijk?
In de luchtvaart is het overduidelijk wie waarvoor verantwoordelijk is. We vertrouwen op de piloot die tijdens het vliegen de knopen doorhakt. Gaat er iets mis met de apparatuur? Dan ligt de verantwoordelijkheid bij de luchtvaartmaatschappij of de fabrikant. Het systeem werkt simpelweg omdat er altijd iemand als verantwoordelijke aan te wijzen is: iemand met een brevet dat kan worden ingetrokken, of een bedrijf dat beboet kan worden of op andere manieren kan worden gestraft. Maar wat gebeurt er als een algoritme in plaats van een persoon belangrijke beslissingen neemt tijdens een vlucht? We zijn nog niet zover, maar de komst van volledig zelfvliegende vliegtuigen lijkt een kwestie van tijd. Er is al een enorme niche-industrie ontstaan die hier vol op inzet. Als die autonome vliegtuigen er komen, zit er straks dus niemand meer in de cockpit. Dat werpt een cruciale vraag op: wie of wat is dan de ‘gezagvoerder’? Die term gaat uit van een mens; de luchtvaartwetgeving en verzekeringen zijn gebaseerd op die aanname. Maar een algoritme heeft geen vliegbrevet. Je kunt een stuk code niet voor de rechter slepen of zijn certificering afnemen. Toch moet er iemand rekenschap afleggen voor wat er op tienduizend meter hoogte voorvalt.
Binnen de huidige luchtvaartwetgeving is de exploitant bijna altijd aansprakelijk, los van de handelingen van de piloot. Dit verandert niet met de komst van autonome systemen: de exploitant, een rechtspersoon, blijft verantwoordelijk voor wat er tijdens de vlucht gebeurt. Volgens de richtlijnen van de FAA moet bij het gebruik van AI-systemen klip en klaar worden vastgelegd wie verantwoordelijk is. Als een AI-systeem het vliegen voor zijn rekening neemt, kan dat een supervisor of de luchtvaartmaatschappij zijn. De wet vereist simpelweg dat een persoon of bedrijf verantwoordelijk kan worden gehouden.
De schuldvraag
Bij algoritmische ongelukken is het lastig om te bepalen wie er verantwoordelijk is, omdat er veel verschillende partijen bij betrokken zijn.
Maar bij ongelukken waarin AI een rol speelt, kan de oorzaak moeilijk te achterhalen zijn. Het kan aan de software, de hardware, de trainingsgegevens of een combinatie van die drie liggen. De rampen in 2018 en 2019 met de Boeing 737 Max zijn een goed voorbeeld van deze onduidelijkheid. Bij die crashes duwde de automatische software (het MCAS) de neus van het vliegtuig steeds naar beneden op basis van verkeerde sensorinformatie, terwijl de piloten probeerden dit tegen te gaan. Was het een slecht ontworpen algoritme, een defecte sensor of toch een menselijke fout? Onderzoekers wezen alle drie de factoren aan: de MCAS-logica van Boeing was aantoonbaar te agressief, een sensor gaf onjuiste gegevens door die ten onrechte een overtrek (‘stall’) aanduidden, en de luchtvaartmaatschappij liet na om het bekende sensorprobleem aan te pakken en de piloten hadden het systeem handmatig moeten overrulen. Het vaststellen van de aansprakelijkheid bleek allesbehalve eenvoudig.
In tegenstelling tot een crash met piloten, waar de piloot of een technisch probleem vaak als schuldige wordt aangewezen, zijn er bij ongelukken met AI-systemen veel meer partijen betrokken: hardwarefabrikanten, softwareontwikkelaars, datawetenschappers en luchtvaartmaatschappijen hebben allemaal invloed op de werking van het systeem. Die gedeelde invloed zorgt ervoor dat de verantwoordelijkheid vervaagt; je kunt niet zomaar één schuldige aanwijzen als er iets misgaat. Wat het nog ingewikkelder maakt, is dat AI vaak beslissingen maakt via ondoorzichtige ‘black boxes’. Zelfs de ontwikkelaars weten niet precies hoe hun systeem tot een bepaalde conclusie komt. Machine learning-systemen, vooral neurale netwerken, gebruiken complexe statistische patronen om beslissingen te nemen. Dat roept een lastige vraag op: hoe kun je een systeem aansprakelijk stellen als de logica erachter een mysterie is? En hoe bewijs je dat er een fout is gemaakt als niemand kan zien wat er precies binnenin het systeem gebeurt?
Wat AI in de cockpit nog tegenhoudt
AI belooft een oplossing te zijn voor de chronische problemen in de luchtvaart, maar de juridische en regelgevende dilemma’s vormen nog een struikelblok.
Autonome AI in de cockpit brengt een hoop juridische kopzorgen met zich mee waar de sector nog niet uit is. Bij luchtvaartcertificering wordt ervan uitgegaan dat ontwerpen tientallen jaren onveranderd blijven. Zodra een systeem uitgebreide tests in een bepaalde configuratie heeft doorstaan, wordt het vastgelegd. Regelgevers keuren die specifieke versie goed en elke belangrijke wijziging die daarna wordt aangebracht, vereist hercertificering. Maar AI-modellen evolueren door continue training, het bijwerken van data en software-updates. Hun gedrag kan veranderen als ze nieuwe informatie verwerken of als ontwikkelaars hun algoritmen verfijnen. Hoe certificeer je een AI-piloot dan? Als zelfs een kleine aanpassing van het model als een nieuw systeem wordt beschouwd, zou elke hertraining een nieuwe certificering vereisen: een eindeloze, onpraktische cyclus die de ontwikkeling zou vertragen. Maar als je ongecontroleerde updates toestaat, loop je het risico dat er systemen worden gebruikt die zich anders gedragen dan wat de regelgevers hebben goedgekeurd.
Dan is er nog het verzekeringsprobleem. Luchtvaartverzekeringen zijn gebaseerd op tientallen jaren aan gegevens over menselijke piloten, mechanische storingen en duidelijke aansprakelijkheid. Actuarissen weten precies hoe ze het risico moeten berekenen wanneer een piloot met 10.000 vlieguren in de cockpit zit. Ze weten hoe vaak turbofans defect raken. Maar bij het beoordelen van door AI genomen beslissingen ontbreekt elk houvast. De gespreide verantwoordelijkheid tussen de luchtvaartmaatschappij, de AI-fabrikant, de softwareleverancier en de gegevensleverancier maakt het afsluiten van verzekeringen extra moeilijk. Verzekeraars hameren op de noodzaak van heldere wetgeving voordat ze risico’s goed kunnen inschatten. Volgens brancheorganisaties is de huidige luchtvaartwetgeving te veel gericht op de rol van de piloot en moet deze worden aangepast zodat alle belanghebbenden worden meegenomen. Totdat dat gebeurt, blijft het onduidelijk wie de beslissingen van een niet-menselijke piloot gaat verzekeren.
Geen opzet, wel slachtoffers. Wie straf je dan?
De wirwar aan internationale regels zorgt voor juridische nachtmerries waar niemand een oplossing voor heeft.
De kwestie van strafrechtelijke aansprakelijkheid vormt een ander lastig vraagstuk. Ernstige vliegtuigongelukken kunnen aanleiding geven tot strafrechtelijk onderzoek, vooral wanneer er sprake lijkt te zijn van nalatigheid of roekeloosheid. Een autonome AI kent echter geen ‘opzet’. Het is niet in staat om nalatig te zijn zoals mensen dat zijn. Als een AI-piloot dodelijke slachtoffers veroorzaakt, kan volgens het huidige recht niemand worden gestraft, tenzij de nalatigheid kan worden toegeschreven aan een mens of een bedrijf. Het feit dat er niemand strafrechtelijk verantwoordelijk kan worden gehouden, voelt natuurlijk als onrecht, vooral voor de nabestaanden. Experts pleiten daarom voor een wetswijziging: bedrijven moeten verantwoordelijk kunnen worden gehouden als hun AI-systemen door ernstig tekortschieten de dood tot gevolg hebben. Het bewijzen van grove nalatigheid blijft echter wel complex wanneer meerdere partijen betrokken zijn bij de ontwikkeling en het gebruik van de AI.
Voeg daar nog eens de wirwar aan internationale regels voor de luchtvaart aan toe. De regels in de VS zijn anders dan die van het Europees Agentschap voor de veiligheid van de luchtvaart (EASA), die weer anders zijn dan die van de Chinese CAAC. Stel je nu eens voor: een AI-systeem dat is getraind op de regels van de FAA komt in het Europese luchtruim dat onder EASA valt. De AI neemt een beslissing die perfect past bij de Amerikaanse regels, maar die toevallig in strijd is met de EU-wetgeving. Wie is er dan verantwoordelijk? De luchtvaartmaatschappij? De leverancier van de AI? Vliegtuigen vliegen constant tussen verschillende rechtsgebieden, en elk rechtsgebied heeft andere vereisten voor veilig vliegen. De voor de hand liggende oplossing zou zijn om wereldwijde standaarden en certificeringsprocessen op elkaar af te stemmen. Een gezamenlijke basis: als AI aan de eisen voldoet, wordt het overal geaccepteerd, net als de ‘typecertificering’ voor vliegtuigen. De luchtvaartsector slaagt er echter al decennia niet in om het over veel simpelere regels eens te worden. Het wordt dus een enorme uitdaging om alle luchtvaartautoriteiten wereldwijd op één lijn te krijgen voor AI-standaarden.
De weg vrijmaken voor AI in de luchtvaart
De luchtvaartsector is nog terughoudend met het gebruik van AI, maar we zien de eerste stappen richting een grotere acceptatie.
Om een idee te krijgen van hoe de luchtvaart met deze uitdagingen om zou kunnen gaan, is het nuttig om te kijken naar hoe andere sectoren met soortgelijke problemen omgaan. De FDA worstelt al een tijdje met hetzelfde certificeringsvraagstuk voor medische AI-apparaten. De oplossing die zij voorstellen is een zogenaamd Predetermined Change Control Plan. Dit is een raamwerk waarin ontwikkelaars vooraf aangeven hoe een algoritme zich kan ontwikkelen en hoe updates worden gevalideerd. Als de regelgevende instanties het plan vooraf goedkeuren, kan het apparaat binnen die overeengekomen grenzen worden bijgewerkt zonder dat er telkens nieuwe goedkeuringen nodig zijn. De luchtvaart zou iets soortgelijks kunnen invoeren, waardoor AI-systemen kunnen leren en verbeteren binnen vooraf gecertificeerde parameters, in plaats van elke update als een volledig nieuw systeem te zien.
EASA is al begonnen met het uitstippelen van een pad voorwaarts met haar meerfasige AI-routekaart die, vergelijkbaar met de SAE-niveaus voor de automatisering van auto’s, drie niveaus van AI in de luchtvaart definieert: AI die alleen menselijke beslissingen ondersteunt (niveau 1), AI die de besluitvorming deelt (niveau 2), tot uiteindelijk zeer autonome systemen (niveau 3). De FAA heeft een eigen routekaart voor AI-veiligheid uitgebracht, die op dezelfde manier werkt en waarin de nadruk ligt op geleidelijke implementatie, duidelijke verantwoordelijkheid en voortbouwen op bestaande veiligheidsregels. Bij de SAE-niveaus worden personenauto’s ingedeeld op een schaal van één tot vijf, waarbij vijf staat voor volledige autonomie zonder enige menselijke controle. De meest geavanceerde systemen op de weg zijn momenteel SAE-niveau 4. De luchtvaart gaat mogelijk een vergelijkbaar pad volgen, waarbij geleidelijk wordt overgestapt van systemen waarin AI suggesties doet en mensen de beslissingen nemen, naar systemen waarin AI beslissingen neemt en mensen toezicht houden.
De AI-supervisor: de nieuwe piloot van de toekomst?
Om grip te krijgen op nooit eerder vertoonde risico’s, komen er AI-geletterde supervisors op de grond en nieuwe verzekeringen.
Die ontwikkeling roept natuurlijk vragen op over wie de monitoring uitvoert en welke kwalificaties daarvoor nodig zijn. Volgens sommige regelgevende instanties moet er een nieuwe categorie ‘algoritmische operators’ komen met aparte licentievereisten. We hebben al dronepiloten die op afstand vliegen met speciale certificaten; toekomstige AI-supervisors zouden vanuit controlecentra toezicht kunnen houden op complete vloten en meerdere vliegtuigen tegelijk kunnen monitoren. Deze operators hebben kennis van luchtvaart nodig én moeten AI-geletterd zijn. Dat betekent inzicht in systeemstatussen, override-logica en de ethische aspecten van algoritmische verantwoordelijkheid. Hoewel er op dit moment nog geen AI-vliegbrevet bestaat, onderzoeken adviesgroepen van de FAA en EASA hoe certificering voor autonome toezichthoudende functies eruit zou kunnen zien. De uitrol begint waarschijnlijk bij drones, waar het juridische pad helderder is en de risico’s kleiner, voordat de commerciële luchtvaart aan de beurt is.
Verzekeringen voor AI-tools
Verzekeraars zijn nog voorzichtig, maar Lloyd’s en andere verzekeraars zijn al bezig met het opstellen van polissen voor autonome vliegtuigen, zoals luchttaxi’s en bezorgdrones. Het risico is groot: één misstap kan het vertrouwen van het publiek én investeerders direct doen kelderen. Daarom dringen zij sterk aan op robuuste regelgeving. We zien trouwens ook steeds meer verzekeringsproducten verschijnen die schade door AI-tools dekken. Lloyd’s of London kwam dit jaar met een nieuwe polis waarmee bedrijven zich kunnen indekken tegen kosten die ontstaan door AI-fouten. Dat begint bij chatbots, maar hiermee wordt de basis gelegd voor een compleet nieuwe categorie verzekeringen voor algoritmische risico’s. In de luchtvaart kunnen verzekeraars gaan eisen dat er sprake is van robuuste machine learning-garanties als voorwaarde voor dekking. Voorlopig experimenteert de sector met polissen met behoudende voorwaarden en de premies liggen hoog door de onzekere risico’s.
De weg vooruit
De luchtvaartsector zit in een lastige situatie met veel druk van alle kanten en geen makkelijke oplossingen in zicht. Luchtvaartmaatschappijen hebben moeite om hun cockpits bemand te houden nu ervaren piloten sneller met pensioen gaan dan dat er nieuwe kunnen worden opgeleid. De reislust groeit sneller dan we twee jaar geleden voorspelden en het luchtruim raakt elk kwartaal voller. In deze context is automatisering niet meer zozeer een optie, maar wordt het noodzaak. Maar het overhaast commercieel inzetten van deze systemen zonder duidelijke wettelijke kaders kan catastrofaal uitpakken voor de sector. Luchtvaartmaatschappijen die AI inzetten zonder goedkeuring van de regelgevende instanties, lopen het risico onverzekerbaar te worden. Geen enkele verzekeraar gaat immers een risico aan dat niet te kwantificeren valt.
AI is misschien wel de enige weg vooruit om het tekort aan personeel op te lossen, het toegenomen vliegverkeer te regelen en de veiligheid naar een hoger plan te tillen dan menselijke piloten kunnen. Maar de wetgeving, ethische richtlijnen en regels voor aansprakelijkheid die voor een verantwoorde toepassing nodig zijn, ontbreken nog grotendeels. Gaan we de stuurknuppel uit handen geven terwijl we nog niet weten wie er verantwoordelijk is als het misgaat? De technologie ontwikkelt zich sneller dan we kunnen bijhouden, en het is niet duidelijk of we nu beter gas kunnen geven of op de rem moeten trappen. Die spanning tussen ‘het moet sneller’ en ‘wie is er verantwoordelijk?’ is precies wat de luchtvaart de komende tien jaar gaat bepalen.
Share via:
