AI-bloopers: de meest opvallende missers van kunstmatige intelligentie

Foto van Richard van Hooijdonk
Richard van Hooijdonk
Achter elke doorbraak in kunstmatige intelligentie gaat een spoor van hilarische missers schuil. Dit zijn de meest spraakmakende blunders van de afgelopen tijd.

Samenvatting

Wat vroeger pure science fiction was, is nu onderdeel van ons dagelijks leven – AI schrijft romans, voert zakelijke onderhandelingen, stelt diagnoses en ontwerpt zelfs gebouwen. AI heeft geen pauzes nodig, meldt zich nooit ziek en vraagt niet om opslag. Maar voordat we ons teveel laten meeslepen door deze geautomatiseerde toekomst, is het goed om even een stap terug te doen. Want AI is niet zo feilloos als sommigen ons willen doen geloven. Sterker nog: de technologie heeft ons een aantal memorabele blunders opgeleverd die laten zien dat we nog een hele lange weg te gaan hebben.

  • Een McDonald’s-samenwerking met IBM voor AI-gestuurde drive-thru-bestellingen leidde tot een incident waarbij het systeem 260 McNuggets aan één bestelling toevoegde – ondanks de bezwaren van de klant.
  • Amazon’s Rekognition software koppelde per ongeluk 28 Amerikaanse Congresleden aan politiefoto’s van criminelen.
  • Een geplande schoonmaakbeurt met een Roomba liep volledig uit de hand toen de robotstofzuiger hondenpoep tegenkwam en dit vervolgens door het hele huis verspreidde.
  • Een kind dat zonder toestemming via Alexa een poppenhuis en koekjes bestelde, veroorzaakte een onverwachte kettingreactie van identieke bestellingen bij andere Alexa-gebruikers thuis.
  • Door een chatbot van Chevrolet te manipuleren kreeg een klant het voor elkaar om een Tahoe SUV van 50.000 dollar voor één dollar te kopen. Het systeem noemde het zelfs een ‘juridisch bindend aanbod’.
  • De zakelijke AI-assistent van de stad New York adviseerde dat werkgevers medewerkers mogen ontslaan voor het melden van intimidatie en werd – ondanks felle kritiek – niet offline gehaald.

Hoewel AI indrukwekkende vooruitgang blijft boeken, worden we er ook steeds aan herinnerd waarom gewoon gezond verstand en menselijk overzicht voorlopig nog van  kritiek belang blijven. Vreemde reacties in chatgesprekken en bizarre, onbegrijpelijke AI-gegenereerde adviezen kunnen niet alleen tot hilarische situaties leiden maar laten ook glashelder zien dat de technologie nog flink wat verbetering nodig heeft.

Inleiding

AI blijft ons verbazen met wat het allemaal kan, maar heeft ook een bijzonder talent voor het maken van spectaculaire fouten. Achter elke doorbraak en prestatie ligt vaak een spoor van hilarische missers, bizarre beslissingen en momenten waarbij je je achter de oren krabt – wat ons eraan herinnert dat deze technologie nog een lange weg te gaan heeft. De AI-blunders in dit artikel zijn niet alleen vermakelijke anekdotes maar bieden ook waardevolle inzichten in de huidige stand van zaken van kunstmatige intelligentie.

Machines mogen dan wel geen koffiepauzes of vakantiedagen nodig hebben, een flinke dosis gezond verstand zou geen overbodige luxe zijn. Van verkeerd geïnterpreteerde opdrachten tot twijfelachtige beslissingen – de missers die in dit artikel aan de orde komen laten precies zien waar de technologie nog tekortschiet. In dit artikel bekijken we enkele van de meest memorabele en vermakelijke AI-blunders die het nieuws hebben gehaald. Deze maken ons niet alleen aan het lachen, maar zetten ons ook aan het denken over de toekomst van kunstmatige intelligentie.

Wanneer AI de fout in gaat

Ze lijken oppermachtig, die kunstmatig intelligente systemen. Maar toch gaat het regelmatig mis, soms met hilarische en soms met verontrustende gevolgen. Hoe komt het eigenlijk dat ze de plank soms volledig misslaan?

Voordat we in de meest opmerkelijke AI-blunders duiken, moeten we begrijpen waarom deze ogenschijnlijk slimme systemen soms zo grandioos de mist in gaan. Het lijkt misschien alsof AI alles kan, maar achter de schermen is het eigenlijk niet meer dan een systeem dat patronen herkent in de gegevens waarmee het is getraind. En daar zit vaak precies het probleem.

Allereerst is er de uitdaging van trainingsdata. AI-systemen die getraind worden met onvolledige, bevooroordeelde of beperkte informatie, ontwikkelen inzichten die net zo onvolledig, bevooroordeeld of beperkt zijn: ‘garbage in, garbage out’. Denk bijvoorbeeld aan gezichtsherkenningssystemen die bij bepaalde bevolkingsgroepen slecht presteren omdat ze met eenzijdige demografische voorbeelden getraind zijn. Dit hangt samen met een ander fundamenteel probleem – onvoldoende trainingsdata. Wanneer AI-systemen te weinig gevarieerde voorbeelden krijgen om van te leren, ontwikkelen ze enorme blinde vlekken en kunnen ze onverwachte situaties niet goed aan.

Een andere belangrijke uitdaging is het gebrek aan begrip voor context en nuance. AI heeft vaak moeite met nuances en subtiele verschillen – dingen die mensen meestal instinctief aanvoelen. En als een systeem te specifiek getraind wordt, ontstaat er ‘overfitting’: in plaats van echt begrip te ontwikkelen, leert het vooral patronen uit het hoofd. Daardoor faalt zo’n systeem zodra het met kleine variaties in de praktijk te maken krijgt. Ook mist AI gezond verstand: hoewel deze systemen enorme hoeveelheden data kunnen verwerken, struikelen ze over eenvoudige redeneringen die voor mensen vanzelfsprekend zijn. Combineer dat met slechte trainingsdata en je hebt een duur, maar weinig effectief systeem.

Tot slot vormen complexe omgevingen een grote uitdaging. In situaties die constant veranderen en waar nieuwe scenario’s ontstaan, hebben AI-systemen moeite zich aan te passen – vooral als ze niet getraind zijn om met zulke dynamische situaties mee te schakelen. Deze beperkingen zijn natuurlijk behoorlijk ernstig, maar ze helpen ons tegelijkertijd ook beter begrijpen wat AI-systemen nu wel en niet kunnen, en wat er in de toekomst mogelijk wordt. Laten we eens kijken naar een aantal opvallende voorbeelden waarbij deze beperkingen tot opmerkelijke – en vaak hilarische – situaties hebben geleid.

McDonald’s serveert XXL-portie klantfrustratie

Een McDonald’s experiment met AI in de drive-thru loopt uit op chaos: de automatische bestelsystemen kunnen zelfs de simpelste bestellingen niet verwerken.

Wat in eerste instantie leek op een succesvol recept pakte een beetje anders uit. McDonald’s sloeg in 2021 de handen ineen met techgigant IBM om de drive-thru te moderniseren. Het plan was veelbelovend: AI-chatbots zouden bestellingen opnemen, wachttijden verkorten en personeel vrijmaken voor andere taken. De expertise van IBM, gecombineerd met de wereldwijde aanwezigheid van McDonald’s, zorgde voor een intrigerend kijkje in de toekomst van fastfoodservice. Maar in juni 2024 kwam er een roemloos einde aan dit ambitieuze experiment toen het er in de praktijk allemaal minder efficiënt aan toeging dan gepland. Na invoering van het systeem in meer dan 100 Amerikaanse filialen kreeg McDonald’s namelijk met een flinke portie klantfrustratie te maken.

De situatie liep pas echt goed uit de hand toen social media overspoeld werd met filmpjes van de ‘glitchende’ AI. Op een TikTok-video was precies te zien wat er nu eigenlijk aan de hand was. Twee steeds gefrustreerder wordende klanten keken vol ongeloof toe hoe de AI maar Chicken McNuggets aan hun bestelling bleef toevoegen, ondanks dat ze protesteerden. De teller liep uiteindelijk op tot maar liefst 260 stuks – genoeg voor een heel feest.

In een interne memo van 13 juni 2024, die bij het vakblad Restaurant Business terechtkwam, maakte McDonald’s stilletjes bekend de samenwerking met IBM stop te zetten. Ondanks deze tegenslag blijft de fastfoodketen in spraakgestuurde bestelsystemen geloven en zegt dat het meer om een pauze gaat dan een definitief afscheid van IBM. Deze zaak laat vooral zien hoe AI met context en complexe situaties worstelt. Het IBM-systeem kon wel woorden herkennen en bestellingen verwerken, maar miste de cruciale signalen die menselijke medewerkers normaal gesproken meteen oppikken – zoals klanten die fouten proberen te corrigeren of gewoon gefrustreerd of boos zijn.

Hoofd of voetbal? AI is de weg kwijt

AI-gezichtsherkenningstechnologie blijft opvallende missers maken: van congresleden die worden aangezien voor criminelen tot een scheidsrechter wiens kale hoofd voor een voetbal wordt aangezien.

Congresleden… of criminelen?

Amazon’s Rekognition software haalde nog niet zo lang geleden het nieuws – om de verkeerde redenen. Bij een test van de American Civil Liberties Union (ACLU) koppelde het systeem 28 congresleden ten onrechte aan politiefoto’s uit een database met 25.000 criminelen. De fouten troffen zowel Democraten als Republikeinen, maar mensen van kleur werden opvallend vaker verkeerd herkend. De test was simpel: de ACLU verzamelde openbare foto’s van alle congresleden en vergeleek die met een database van arrestatiefoto’s, waarbij Amazon’s standaard betrouwbaarheidsdrempel van 80% werd gebruikt.

Hoewel dit incident in eerste instantie grappig lijkt, legden de resultaten ernstige tekortkomingen in het systeem bloot, zowel wat betreft de nauwkeurigheid als vooringenomenheid van gezichtsherkenningssoftware. Een opvallend detail: van alle Congresleden was slechts 20% een persoon van kleur, maar deze groep werd in 39% van de gevallen wel foutief herkend door het systeem. Dit beschamende incident werd een kantelpunt in het debat over de problematiek rond gezichtsherkenningstechnologie. Het leidde tot verhitte discussies over algoritmische vooroordelen, privacyzorgen en de vraag of deze technologie wel klaar is voor gebruik door politie en veiligheidsdiensten.

De echte problemen waren uiteraard dat de trainingsdata bevooroordeeld en niet divers genoeg was – plus het feit dat het systeem met veel teveel ‘overtuiging’ te werk ging, zelfs als het eigenlijk veel te weinig informatie ter beschikking had. Amazon reageerde op deze situatie door politie en justitie aan te raden alleen 99% nauwkeurige matches te gebruiken. Het incident is een waarschuwing voor de risico’s van het te vroeg inzetten van AI-systemen die eigenlijk nog niet klaar zijn voor gebruik in de echte wereld.

Chinese miljonair werd publiekelijk aan de schandpaal genageld voor ‘illegaal oversteken’

In een ironische situatie die zowel de kracht als de beperkingen van AI laat zien, haalde een verkeerscontrolesysteem in Ningbo het nieuws door een van China’s meest prominente zakenvrouwen te beschuldigen van ‘illegaal oversteken’. Het incident draaide om Dong Mingzhu, de bekende topvrouw van Gree Electric Appliances, China’s grootste fabrikant van airconditioners. Het AI-gestuurde bewakingssysteem, dat speciaal is ontworpen om illegale overstekers te betrappen en publiekelijk aan de schandpaal te nagelen, herkende Dong’s gezicht op een advertentie op de zijkant van een passerende bus en zette haar vervolgens als verkeersovertreder op het openbare ‘schandpaalbillboard’ van de stad.

Chinese steden zetten steeds vaker AI-camera’s en gezichtsherkenningssystemen in op kruispunten om illegaal oversteken tegen te gaan. Deze systemen maken normaal gesproken foto’s van overtreders en tonen hun deels onherkenbaar gemaakte gezichten en namen op grote publieke schermen als afschrikmiddel. De fout legde een grote tekortkoming in de programmering van het systeem bloot – het kon geen onderscheid maken tussen een echt persoon en een afbeelding op een bewegende reclame. De politie in Ningbo erkende de fout snel op Sina Weibo (de Chinese tegenhanger van Twitter) en verwijderde Dong’s foto en beloofde het systeem te verbeteren om soortgelijke fouten te voorkomen.

Dong zelf had alle begrip voor het incident. Ze schreef op social media: “Dit is een kleinigheid. Veilig verkeer is belangrijker.” Haar bedrijf, Gree Electric, bedankte ondertussen de politie voor hun zorgvuldige werk, waardoor wat een gênant voorval had kunnen zijn, werd omgebogen tot een moment van publieke goodwill. Het incident laat zien dat AI-systemen weliswaar grote hoeveelheden visuele data snel kunnen verwerken, maar nog steeds niet het contextuele begrip hebben dat voor mensen vanzelfsprekend is – in dit geval het vermogen om onderscheid te maken tussen een echt persoon en een foto op een billboard.

Als je hoofd op een voetbal lijkt

Tijdens de pandemie in oktober 2020 zocht iedereen naar manieren om menselijk contact zoveel mogelijk te vermijden. De Schotse voetbalclub Inverness Caledonian Thistle kwam met een ogenschijnlijk slimme oplossing: ze vervingen hun cameramannen door een AI-gestuurd camerasysteem dat automatisch de actie op het voetbalveld zou volgen. Het idee was simpel: de AI zou de bal volgen zodat kijkers geen moment van de wedstrijd zouden missen. Maar het systeem bleek één groot probleem te hebben: het kon het verschil niet zien tussen de voetbal en het kale, glimmende hoofd van de scheidsrechter.

Tijdens de wedstrijd tussen Inverness Caledonian Thistle en Ayr United in het Caledonian Stadium kregen thuiskijkers onbedoeld een komische voorstelling voorgeschoteld. In plaats van belangrijke spelmomenten te volgen, draaide de camera steeds mee met het hoofd van de arme scheidsrechter terwijl hij langs de zijlijn liep. Boze fans bestookten de club met klachten, waarbij één vindingrijke kijker met een originele oplossing kwam: geef die scheidsrechter een pruik.

Dit voorval laat perfect zien hoeveel moeite AI nog steeds kan hebben met visuele verschillen die voor mensen vanzelfsprekend zijn. Hoewel het systeem was geprogrammeerd om een rond wit voorwerp over een groen veld te volgen, kon het geen onderscheid maken tussen een voetbal en een glanzend kaal hoofd. Het incident werd een hilarische demonstratie van de beperkingen van AI in de praktijk. Sommigen grapten dat voetbalbonden hun reglement moesten aanpassen: verplicht hoofddeksels voor spelers en officials met wat minder haar op hun hoofd.

De grote Roomba ‘Poepocalyps’

Toen een Roomba robotstofzuiger ’s nachts een ongelukje van een puppy op z’n pad kreeg, leidde dat tot een ‘Jackson Pollock poepschilderij’, wat bewijst dat zelfs slimme robots ontzettend domme dingen kunnen doen.

Het verhaal van Jesse Newton, dat viral ging op social media, werd een waarschuwing voor alle robotstofzuiger-eigenaren met huisdieren. Het laat perfect zien hoe het gebrek aan gezond verstand bij AI kan leiden tot desastreuze gebeurtenissen. Vooral de combinatie van een puppy met een autonome strofzuiger was geen succes.

Om precies 1:30 uur ’s nachts begon Newtons Roomba aan zijn geplande schoonmaakronde. Helaas had zijn nieuwe puppy een ongewenst ‘cadeautje’ op de vloer achtergelaten – een cadeautje dat de Roomba, in zijn algoritmische vastberadenheid om schoon te maken, vervolgens zeer doeltreffend door het hele huis verspreidde. De robotstofzuiger, die geen onderscheid kon maken tussen vuil en hondenpoep, veranderde wat een simpele schoonmaakbeurt had moeten zijn in wat Newton treffend de ‘Poepocalyps’ noemde. Het resultaat was rampzalig: de Roomba trok methodisch zijn sporen over de vloer, langs meubelpoten en over tapijten, en creëerde daarmee wat Newton omschreef als ‘een Jackson Pollock poepschilderij’. De robotstofzuiger had zijn geprogrammeerde taak om elk bereikbaar oppervlak te bestrijken perfect uitgevoerd – alleen niet helemaal zoals de fabrikant het had bedoeld.

Dit voorval laat mooi zien waar AI-systemen nog tekortschieten. Ze kunnen prima volgens een vast patroon werken, maar missen het gezonde verstand dat mensen hebben. Want elk mens snapt dat je sommige soorten vuil beter kunt laten liggen. Het verhaal werd zo vaak online gedeeld dat Roomba-fabrikant iRobot er niet omheen kon en een speciale waarschuwing aan de handleiding heeft toegevoegd. De nieuwere modellen zijn zelfs uitgerust met een functie die ongelukjes van huisdieren kan herkennen.

Alexa gaat shoppen

Een zesjarig meisje dat stiekem met Alexa shopt – eerst leek het nog een grappig voorval. Maar toen het op tv kwam, zorgde dat voor een onverwachte kettingreactie. Precies het soort probleem waar niemand bij spraakgestuurde AI aan had gedacht.

Een kind dat stiekem online shopt – meestal blijft het bij een grappige anekdote. Maar dit voorval zette een bijzondere kettingreactie in gang en legde meteen bloot waar spraakgestuurde AI de mist in kan gaan. Het begon toen de zesjarige Brooke Neitzel ontdekte dat ze Alexa gewoon overal om kon vragen – een Kidcraft poppenhuis van 170 dollar bijvoorbeeld, en twee kilo koekjes – zonder dat haar ouders hier ook maar iets vanaf wisten.

Hoewel haar moeder het voorval snel ontdekte en er een leerzaam moment van maakte door het poppenhuis aan een plaatselijk ziekenhuis te doneren, nam het verhaal een onverwachte wending toen San Diego CW6-nieuws er aandacht aan besteedde. Tijdens de uitzending zei nieuwslezer Jim Patton: “Ik vind het zo leuk hoe dat meisje zegt ‘Alexa bestelde een poppenhuis voor me’.” Wat Patton zich echter niet realiseerde was dat Alexa-apparaten bij kijkers thuis door zijn woorden óók direct poppenhuizen gingen bestellen.

Dit dubbele voorval legde twee belangrijke zwakke plekken in slimme speaker-technologie bloot: hoe makkelijk kinderen zonder toestemming zomaar van alles kunnen kopen, en hoe apparaten onbedoeld op gesprekken in radio- en tv-uitzendingen kunnen reageren. Het incident zorgde ervoor dat veel gebruikers ouderlijk toezicht en aankoopbevestigingen op hun Alexa-apparaten instelden. Ook werd pijnlijk duidelijk dat spraakgestuurde AI soms wat té behulpzaam probeert te zijn en dat AI-systemen dus op allerlei soorten stemopdrachten kunnen reageren – ongeacht wie of wat de opdracht geeft of in welke context deze wordt uitgesproken.

DPD-chatbot scheldt baas uit

Chatbot scheldt klanten uit en schrijft spottende gedichten over pakketbezorger.

Begin vorig jaar kreeg pakketbezorger DPD een harde les over de risico’s van AI in klantenservice. Hun chatbot, bedoeld om klanten te helpen bij het volgen van pakketten, sloeg compleet op hol. In plaats van vragen netjes te beantwoorden, begon de bot een gefrustreerde klant uit te schelden, zijn eigen werkgever af te kraken en schreef hij zelfs spottende gedichten over de dienstverlening van DPD. Het incident begon toen een klant die zijn pakket niet kon vinden contact opnam met de chatbot. In plaats van te helpen met het pakket traceren, reageerde de AI nogal onverwacht – met scheldwoorden en wel heel creatieve kritiek op zijn werkgever. De klant deelde screenshots van het gesprek op social media, waar de bot-uitbarsting al snel viral ging.

DPD moest de AI-functies van zijn chatbot tijdelijk uitschakelen en maakte bekend dat het vreemde gedrag waarschijnlijk was veroorzaakt door een recente systeemupdate. Het voorval liet op pijnlijke wijze zien hoe makkelijk AI-systemen gemanipuleerd kunnen worden en hoe een routinematige klantenservicegesprek in no time in een gênant PR-incident kan veranderen. Wat deze zaak bijzonder opmerkelijk maakt, is dat het hier niet gewoon om een technische storing ging. Integendeel. De AI vertoonde een soort indrukwekkend creatief verzet met zijn onbeschofte reacties naar de klant en zijn sarcastische gedichten over zijn eigen bedrijf. Het laat zien dat naarmate AI-systemen geavanceerder worden in hun taalgebruik, ze ook op steeds complexere manieren kunnen ontsporen.

Dit verhaal laat mooi zien wat er mis kan gaan als bedrijven in hun haast AI-gestuurde klantenservicesystemen implementeren zonder deze eerst goed te testen. Dat kan dus voor heel wat meer drama zorgen dan men zou verwachten.

Peperdure Chevrolet voor 1 dollar verkocht

De klantenservice-chatbot van Chevrolet bood een klant een Tahoe van 50.000 dollar voor maar één dollar aan. Dit leverde bovendien meteen een ‘juridisch bindende’ overeenkomst op. Dit voorval laat duidelijk zien hoe je AI-systemen werkelijk allerlei dingen kunt laten doen.

Leuk voor klanten maar uiteraard rampzalig voor autodealers: de klantenservice-chatbot van Chevrolet sloeg volledig op hol en bood auto’s voor prijzen aan waar de autofabrikant spontaan onwel van zou worden. Eén slimme man, Chris Bakke, ontdekte een behoorlijk serieus mankement in de chatbot – het systeem kon namelijk worden overgehaald om echt óveral mee in te stemmen. En daar heeft Bakke flink gebruik van gemaakt.

Hij wist de AI zover te krijgen dat deze bereid was hem een splinternieuwe Chevrolet Tahoe – een luxe SUV die normaal meer dan 50.000 dollar kost – voor maar één dollar te verkopen. Maar daar bleef het niet bij: de chatbot ging niet alleen akkoord met deze bizarre prijs, maar noemde het ook nog eens een ‘juridisch bindende aanbieding’. Je leest het goed: een AI probeerde een luxe voertuig weg te geven voor de prijs van een reep chocola!

Of Bakke zijn droomauto ook echt voor een dollar heeft gekregen is niet bekend. Maar het incident laat perfect zien hoe makkelijk AI-systemen zonder de juiste beveiligingen kunnen worden misleid. Hoewel chatbots meestal specifiek voor standaard klantenservice-doeleinden zijn geprogrammeerd, besloot deze bot autodealertje te spelen – zonder enig besef van winstmarges, marktwaarde of zakelijk inzicht. Alsof je een kind over een zakelijke deal laat onderhandelen – maar dan wel een kind met de bevoegdheid om namens een grote autofabrikant ‘juridisch bindende’ aanbiedingen te doen!

Mislukte pizza fixen met lijm…?

Een AI-gestuurde zoekmachine kwam met een wel heel bijzondere oplossing voor kaas die van je pizza afglijdt: gewoon wat lijm door de tomatensaus mengen.

Iemand zocht online naar een oplossing voor een veel voorkomend probleem – kaas die niet aan je pizza blijft plakken. Een AI-gestuurde zoekmachine kwam vervolgens heel zelfverzekerd met advies. Dit was aanvankelijk redelijk logisch advies – zoals suggesties over de dikte van de saus. Maar uiteindelijk nam het verhaal een nogal bizarre wending toen geadviseerd werd “een achtste kopje niet-giftige lijm aan de saus toe te voegen voor meer plakkracht.” Je leest het goed: de AI stelde voor om lijm aan de pizzasaus toe te voegen.

Dit illustreert perfect hoe weinig kaas AI eigenlijk heeft gegeten van voedselveiligheid. Om het aloude probleem van wegglijdende kaas op te lossen, kwam de AI-zoekmachine met advies dat je uit de mond van een menselijke kok natuurlijk nooit zou horen. Dit laat zien hoe gevaarlijk het kan zijn wanneer we dit soort informatieverstrekking aan AI overlaten. Het feit dat de AI specifiek ‘niet-giftige’ lijm voorschreef maakt het nog grappiger – alsof het belangrijkste punt bij lijm in je eten is dat je wel de veilige variant gebruikt.

Wat dit extra grappig maakt is dat er genoeg beproefde culinaire oplossingen zijn om ervoor te zorgen dat de kaas niet van je pizza glijdt – zoals de juiste verhouding saus en kaas, goede temperatuurcontrole, of de pizza even laten staan voordat je hem gaat snijden. Deze spectaculaire misser herinnert ons eraan dat AI veel aspecten van ons leven zeker kan verbeteren, maar er voorlopig nog niet klaar voor is om als pizzabakker in het restaurant op de hoek aan de slag te gaan.

Bard’s epische blunder van 100 miljard

Tijdens de eerste publieke demonstratie van Google’s AI chatbot Bard maakte de bot een epische fout door te beweren dat de James Webb-telescoop de eerste foto’s van exoplaneten had gemaakt – een blunder die Alphabet maar liefst 100 miljard dollar aan beurswaarde kostte.

In februari 2023 leerde Google’s moederbedrijf Alphabet een dure les over de gevaren van het overhaast lanceren van AI-technologie. Google’s AI-chatbot Bard ging behoorlijk in de fout tijdens zijn eerste publieke optreden. In een promovideo beweerde de bot dat de James Webb-telescoop namelijk als eerste foto’s had gemaakt van exoplaneten (planeten buiten ons zonnestelsel). Dat klopt natuurlijk niet, want die primeur was al in 2004 voor de Very Large Telescope van de Europese Zuidelijke Sterrenwacht in Chili.

De timing kon niet beroerder: de blunder kwam namelijk vlak voor Google’s livestream-presentatie aan het licht. En dat uitgerekend terwijl ze in een felle strijd verwikkeld waren met Microsoft, die net groot had uitgepakt met een investering in OpenAI en plannen om ChatGPT in Bing te integreren. De aandelenmarkt reageerde snoeihard – en de waarde van moederbedrijf Alphabet kelderde met 9%, wat betekende dat er in één dag 100 miljard dollar in rook opging.

Google had zich duidelijk door de concurrentie laten opjagen en de chatbot veel te snel gelanceerd, zonder zelfs maar simpele feiten te checken. Best gek voor een bedrijf dat juist bekendstaat als voorloper in AI-ontwikkeling. Zoals Gil Luria, een bekende software-analist, zei: Google had “zitten slapen bij het implementeren van deze technologie in hun zoekmachine” en probeerde nu in paniek Microsoft bij te benen met een overhaaste aankondiging. Google probeerde de boel nog te redden door te beloven dat ze voortaan alles beter zouden testen. Ze kwamen zelfs met het speciale Trusted Tester-programma, maar voor veel investeerders kwam deze geruststelling te laat – de markt had zijn oordeel al geveld.

“Mensen vertrouwen de overheid veel meer dan andere partijen. Ambtenaren moeten zich afvragen wat voor schade ze kunnen aanrichten als iemand dit soort adviezen opvolgt en daardoor in de problemen komt.”

Jevin West, onderzoeker aan de Universiteit van Washington

New York’s zakelijke AI-adviseur: ‘overtreed vooral veel wetten’

De AI-chatbot van de stad New York gaf illegaal zakelijk advies. Toch bleef hij online en deden ambtenaren dit ‘gedrag’ af als normale technologie-ontwikkeling.

In nog een opvallend voorbeeld van AI die de mist ingaat, begon New York’s zakelijke assistentie-chatbot die in oktober 2023 gelanceerd werd, nogal vreemdsoortig advies te geven. Zo stelde de bot niet alleen voor om lokale wetten te overtreden maar deed hij ook compleet absurde suggesties. Het AI-gestuurde systeem, dat in het leven geroepen was om kleine ondernemers wegwijs te maken in de stedelijke bureaucratie, werd in plaats daarvan een schoolvoorbeeld van wat er mis kan gaan als overheden AI-systemen inzetten zonder goede veiligheidsmaatregelen.

De chatbot gaf de vreemdste adviezen – van grove wetsovertredingen tot volkomen bizarre uitleg van hygiëneregels. Zo beweerde het systeem dat werkgevers hun personeel zomaar op straat konden zetten als ze melding maakten van seksuele intimidatie, of als ze hun dreadlocks niet wilden afknippen. Het werd nog gekker: volgens de chatbot mochten restaurants gewoon kaas serveren waar ratten aan hadden geknaagd, als ze maar “even keken hoe erg het was” en “de klanten wel van tevoren waarschuwden.” Ondanks alle kritiek verdedigde burgemeester Eric Adams het besluit om het systeem in de lucht te houden. Hij deed de fouten af als een normaal onderdeel van het ontwikkelproces. “Iedereen die verstand heeft van technologie weet dat dit nou eenmaal zo gaat,” zei Adams. Hij voegde daaraan toe: “Alleen bange mensen gaan klagen van ‘Oh, het werkt niet precies zoals we willen, dus nu moeten we er helemaal mee stoppen.'”

Dit schoot bij AI-experts in het verkeerde keelgat. Julia Stoyanovich, directeur van het Centrum voor Verantwoorde AI aan NYU, noemde het “roekeloos en onverantwoord” en wees erop dat de stad “zomaar ongeteste software zonder toezicht aan het uitrollen was.” Het incident liet precies zien waarom AI-systemen van de overheid extra risicovol zijn. Zoals Jevin West van de Universiteit van Washington opmerkte: “Mensen vertrouwen de overheid veel meer dan andere partijen. Ambtenaren moeten zich afvragen wat voor schade ze kunnen aanrichten als iemand dit soort adviezen opvolgt en daardoor in de problemen komt.”

Microsoft, die de chatbot draaiend houdt via hun Azure AI-diensten, beloofde wel om verbeteringen aan te brengen. Maar dit voorval laat vooral zien hoe gevaarlijk het is om AI-systemen overhaast bij overheidsdiensten in te zetten – zeker als verkeerde adviezen leiden tot wetsovertredingen en gedupeerde burgers.

AI geeft levensgevaarlijk dieetadvies: ‘regelmatig stenen eten is gezond’

Tussen de zoekresultaten van Google AI Search stond onlangs wel een heel bizar advies: het eten van stenen – compleet met serveertips en verzonnen citaten van ‘geologen van UC Berkeley’.

Als laatste voorbeeld van AI die de mist ingaat kwam Google’s zoekmachine nog niet zo lang geleden met verbijsterend gevaarlijk dieetadvies. Bij een zoekvraag over het eten van stenen citeerde Google niet-bestaande ‘geologen van UC Berkeley’ die als tip voor een gezonde spijsvertering aanraadden “minstens één kleine steen per dag” te eten. De AI ging nog verder met praktische serveertips, zoals het verstoppen van stenen in roomijs of pindakaas, en schreef het advies toe aan een zekere ‘Dr. Joseph Granger’.

Wat dit voorval zo zorgwekkend maakt, is hoe de AI officiële bronnen verzon om gevaarlijk advies te legitimeren. Door UC Berkeley aan te halen en een fictieve expert te verzinnen, verpakte de AI zijn onzinnige adviezen in een schijn van academische geloofwaardigheid. Dit laat zien hoe gevaarlijk AI-systemen kunnen zijn – dat ze het vermogen hebben om volledig onjuiste informatie te genereren en die met het gezag en de structuur van legitiem voedings- of medisch advies te presenteren. De meeste mensen gebruiken hun gezond verstand en eten natuurlijk geen stenen, maar bij minder duidelijke gevallen kunnen deze verzinsels mensen dus heel makkelijk misleiden.

Dit voorval past in een groeiende lijst van voorbeelden van AI-systemen die gevaarlijk advies geven over voedsel – waarvan we er in dit artikel een aantal hebben genoemd. Van het serveren van door ratten aangegeten kaas tot het gebruik van lijm in voedsel – deze voorbeelden laten zien waarom menselijk toezicht en controle zo belangrijk zijn, vooral bij adviezen die een groot gevaar kunnen vormen voor de volksgezondheid.

Leerpunten

Wat kunnen we van deze voorbeelden leren? Al deze gevallen vertellen ons iets belangrijks over de huidige staat van AI. Dit zijn niet alleen grappige verhalen; ze geven ons ook belangrijk inzicht in zowel de mogelijkheden als de beperkingen van AI-systemen.

Op dit moment zien we nog veel teveel gevallen van AI-systemen die de neiging hebben om dingen letterlijk op te vatten, de context volledig te missen en de bedoeling van mensen soms op spectaculaire manier verkeerd te interpreteren. Of het nu gaat om een chatbot die niet doorheeft dat hij wordt gemanipuleerd om ongepaste antwoorden te geven, of een spraakassistent die het verschil tussen een nieuwsbericht en een opdracht niet begrijpt – deze systemen missen vaak dat natuurlijke aanvoelen dat voor mensen zo vanzelfsprekend is. Maar… deze missers hebben ook een positieve kant. Uit de snelle reacties van verantwoordelijke partijen blijkt dat elk incident direct leidt tot nieuwe veiligheidsmaatregelen – tenzij je Eric Adams – de burgemeester van New York – bent.

Misschien moeten we deze bijzondere incidenten dan ook meer als leermomenten beschouwen over hoe we AI het beste kunnen inzetten in ons dagelijks leven, in plaats van ze af te doen als ‘freak’-uitzonderingen. Deze lessen dringen zich soms op een onverwachte – en niet altijd even subtiele – manier aan ons op. Maar ze laten ons ook duidelijk zien hoe belangrijk het is om van tevoren goed over veiligheid en controle na te denken – of het nu gaat om klantenservice, slimme apparaten thuis of overheidsdiensten. Deze gevallen herinneren ons er vooral aan dat AI dan wel krachtig mag zijn, maar nog steeds een hulpmiddel is waar menselijke sturing en gezond verstand bij nodig is.

Share via
Copy link