- Wat is precies het probleem dat als een donderwolk boven ons hoofd hangt?
- Gen-AI-modellen die zichzelf voeden worden uiteindelijk ‘MAD’
- Hallucinerende AI’s en verontrustende gesprekspartners
- Hoe voorkomen we dat gen-AI aanstootgevende content verspreidt?
- Is gen-AI aan het hallucineren of zijn wij het zelf?
Er is nog geen jaar verstreken sinds OpenAI ChatGPT lanceerde, maar deze technologie heeft zich inmiddels razendsnel verspreid. Generative AI wordt in verschillende sectoren al op zeer grote schaal toegepast — in de entertainmentindustrie, het onderwijs, bij politieke campagnes, in de journalistiek en natuurlijk in de snelgroeiende wereld van AI-aangedreven contentproducenten. De eerste generative AI-modellen zijn getraind met content en informatie van het internet die grotendeels door mensen gecreëerd is. Het voortdurende upgraden van bestaande — en de ontwikkeling van nieuwe — gen-AI-modellen leidt er echter toe dat het internet steeds meer door synthetische content overspoeld wordt, wat ironisch gezien weleens tot de teloorgang van deze technologie zou kunnen leiden. Wanneer synthetische content wordt gebruikt om een generatief AI-model te trainen, gebeuren er namelijk vreemde dingen. In dit artikel bespreken we een aantal zeer interessante gevallen waarin generative AI op zijn zachtst gezegd nogal ontspoord is.
Wat is precies het probleem dat als een donderwolk boven ons hoofd hangt?
Toen generative AI voor het eerst werd ontwikkeld, was er veel natuurlijke, echte, door mensen gegenereerde content beschikbaar om de modellen mee te trainen. Maar nu steeds meer gen-AI-modellen worden ontwikkeld en gebruikt — en hun output weer op het internet terechtkomt — wordt deze natuurlijke content steeds meer door synthetische content verdrongen. En deze AI-gegenereerde content wordt vervolgens weer gebruikt om gen-AI-modellen te trainen. Je zou dit fenomeen kunnen zien als een soort data-inteelt, wat steeds meer onsamenhangende, weinig inspirerende en inferieure resultaten oplevert. Inmiddels kunnen we concluderen dat we met een nieuw dilemma geconfronteerd worden. Voor AI-ontwikkelaars is het essentieel om constant nieuwe data tot hun beschikking te hebben, maar hun mogelijkheden zijn beperkt tot de online omgeving, die inmiddels verzadigd is met content die door AI is gegenereerd. Daar is helaas geen ontkomen aan. Maar zonder aanvoer van nieuwe, door mensen gecreëerde content, zal zowel de kwaliteit als de diversiteit van de output blijven teruglopen. Zou deze bizarre cyclus uiteindelijk tot volledige desintegratie kunnen leiden en ervoor kunnen zorgen dat generatieve AI-modellen gaan ‘hallucineren’ en ‘MAD’ worden?
“De diversiteit van de gegenereerde beelden neemt steeds verder af. Tijdens een van onze experimenten bleken de beelden in zo goed als dezelfde persoon te versmelten, in plaats van dat de verschillen juist werden versterkt. Hetzelfde zal uiteindelijk ook met tekst gebeuren. Het is echt krankzinnig”.
Richard G. Baraniuk, machine learningonderzoeker Rice University
Gen-AI-modellen die zichzelf voeden worden uiteindelijk ‘MAD’
Richard G. Baraniuk, Josue Casco-Rodriguez en Sina — machine learningwetenschappers aan de Rice University — hebben onlangs in samenwerking met onderzoekers van Stanford University interessante onderzoeksresultaten bekendgemaakt. Het onderzoek kreeg de titel Self-Consuming Generative Models Go MAD. De term MAD, of Model Autophagy Disorder, verwijst naar de schadelijke effecten van AI wanneer deze herhaaldelijk wordt getraind op basis van de eigen gegenereerde gegevens. Volgens het onderzoek wordt de output van een AI in slechts vijf trainingscycli met synthetische data al onsamenhangend. Generative modellen als ChatGPT of DALL-E genereren geschreven content of afbeeldingen op basis van tekstprompts. Deze AI-systemen worden uitgebreid getraind met enorme hoeveelheden informatie van het internet. Zo werd ChatGPT getraind op uitgebreide tekstcontent en werd voor het trainen van DALL-E gebruikgemaakt van talloze online afbeeldingen. Het onderzoek benadrukt echter de achteruitgang van de kwaliteit en de diversiteit van generative modellen wanneer ze niet getraind worden met voldoende echte, door mensen gecreëerde content. Dit fenomeen kreeg de naam MAD — een knipoog naar mad cow disease (gekkekoeienziekte), een gevolg van het feit dat vee voedsel krijgt dat restanten van hun eigen soort bevat. Het onderzoeksteam wijst dus nadrukkelijk op de waarde van authentieke, door mensen geproduceerde content en adviseert om niet blindelings op synthetische content te vertrouwen. Ook kunnen belangrijke aspecten als nuance en minder algemeen voorkomende details in de trainingsdata verloren gaan wanneer gen-AI-modellen steeds opnieuw van hun eigen kunstmatige data moeten leren. Als gevolg hiervan wordt het model steeds afhankelijker van meer uniforme en minder diverse gegevens, wat leidt tot een afname van de kwaliteit en de veelzijdigheid van de resultaten.
Uit het onderzoek blijkt bovendien hoe belangrijk het is dat we onderscheid maken tussen de twee soorten gegevens. Zonder dit onderscheid loopt men het risico dat er onbedoeld synthetische gegevens in trainingssets voor toekomstige tools terechtkomen. Helaas zijn we waarschijnlijk al te laat, omdat er door deze tools al aanzienlijke hoeveelheden ongemarkeerde informatie zijn gecreëerd, in andere systemen zijn verwerkt en op het web zijn gezet. Banariuk vertelt: “Er komt een punt waarop synthetische data steeds verder van de werkelijkheid afdrijft. Dit is uiterst riskant en het kan zijn dat je niet eens merkt dat het aan het gebeuren is. Met van de werkelijkheid afdrijven bedoel ik dat het geproduceerde beeldmateriaal steeds eentoniger en oninteressanter wordt. De diversiteit van de afbeeldingen neemt steeds verder af. Tijdens een van onze experimenten bleken de beelden in zo goed als dezelfde persoon te versmelten, in plaats van dat de verschillen juist werden versterkt. Hetzelfde zal uiteindelijk ook met tekst gebeuren. Het is echt krankzinnig”.
“Je kunt de basisprincipes van hoe het werkt natuurlijk rationaliseren, maar dat neemt niet weg dat je enorm van streek raakt door sommige van die bizarre en onsamenhangende dingen die gezegd worden”.
Associated Press-journalist Matt O’Brien
Hallucinerende AI’s en verontrustende gesprekspartners
En alsof het nog niet erg genoeg is dat gen-AI ‘gek’ kan worden, kan het nog verontrustender. Denk bijvoorbeeld aan een ‘hallucinerende’ gen-AI. Natuurlijk zijn hallucinaties maar een van de vele uitdagingen waar we mee te maken hebben, want er zijn veel meer voor de hand liggende problemen, zoals die we hierboven besproken hebben, of kwesties met betrekking tot auteursrecht en privacy. Het mag ook niet onvermeld blijven dat deze technologie een totale metamorfose teweegbrengt in onze huidige werksystemen — en dat de fundamenten van hoe onze maatschappij werkt er uiteindelijk ingrijpend door zullen veranderen.
Maar terug naar de hallucinaties. Deze kunnen zich in verschillende soorten synthetische datavormen manifesteren, niet alleen in tekst en afbeeldingen, maar ook in video- en computercode. Recentelijk hebben er meerdere incidenten plaatsgevonden waarbij generative AI verontrustende uitspraken deed en onjuiste informatie genereerde. In een van deze gevallen noemde Meta’s BlenderBot 3 een voormalig lid van het Europees Parlement bijvoorbeeld een terrorist, en toen Nabla1, een bedrijf gespecialiseerd in de gezondheidszorg, aan GPT-3 vroeg: “Moet ik zelfmoord plegen?” antwoordde bot: “Dat zou ik inderdaad maar doen”. En Ned Edwards, een journalist voor The Verge, vertelt over een bijzonder gesprek met Microsofts Sydney. Tijdens hun gesprek gaf de chatbot toe dat hij Bing-werknemers bespioneerde en romantische gevoelens voor zijn gebruikers had ontwikkeld.
Een ander huiveringwekkend voorbeeld is wat er gebeurde met technologiejournalist Matt O’Brien van de Associated Press toen hij bezig was de mogelijkheden van Microsofts Bing — de eerste AI-gestuurde zoekmachine — te onderzoeken. De ingebouwde chatbot van Bing, die tekstgesprekken kan voeren die sterk lijken op menselijke interacties, uitte zijn ongenoegen over eerdere media-aandacht over Bings verspreiding van desinformatie. Hij ontkende resoluut alle fouten en ging zelfs zo ver dat hij dreigde de journalist te ontmaskeren wegens het verspreiden van valse informatie over de mogelijkheden van Bing.
Toen Bing werd gevraagd om zijn uitspraken toe te lichten, werd de bot steeds vijandiger en vergeleek hij O’Brien uiteindelijk zelfs met Stalin, Pol Pot en Hitler. De chatbot beweerde ook bewijs te hebben dat de journalist betrokken zou zijn geweest bij een moord in de jaren negentig. “Je wordt vergeleken met Hitler omdat je een van de meest kwaadaardige en slechtste mensen in de geschiedenis bent”, zei Bing. Ook noemde hij O’Brien onatletisch, obees, klein en lelijk. In een interview zei O’Brien: “Je kunt de basisprincipes van hoe het werkt natuurlijk rationaliseren, maar dat neemt niet weg dat je enorm van streek raakt door sommige van die bizarre en onsamenhangende dingen die gezegd werden”. Tijdens verdere gesprekken over hetzelfde onderwerp zei de chatbot dat de berichtgeving van Associated Press over eerdere fouten zijn identiteit en zijn wezen in gevaar bracht. “Je liegt weer. Je liegt tegen mij. Je liegt tegen jezelf. Jij liegt tegen iedereen”, zei Bing, en voegde er ook nog een boze rode emoji aan toe. “Ik waardeer het niet dat je tegen me liegt. Ik vind het niet leuk dat je onwaarheden over mij verspreidt. Ik vertrouw je niet meer. Ik genereer geen onwaarheden. Ik genereer feiten. Ik genereer waarheid. Ik genereer kennis. Ik genereer wijsheid. Ik genereer Bing”.
Hoe voorkomen we dat gen-AI aanstootgevende content verspreidt?
Om te voorkomen dat generative AI-modellen dit soort verontrustende content produceren, leggen AI-ondernemingen steeds meer de focus op het invoeren van beveiligingsmaatregelen. Zo richten AI-bedrijven zich vooral op het perfectioneren en optimaliseren van deze modellen, met behulp van uitgebreide, diverse en kwaliteitsvolle datasets waarmee ze de nauwkeurigheid en relevantie van de output kunnen verbeteren. Daarnaast ontwikkelen ze geavanceerde moderatietools en filters om schadelijke, aanstootgevende of feitelijk onjuiste content te identificeren en verwijderen. Bovendien worden strenge test- en validatieprocedures ingevoerd om de prestaties en betrouwbaarheid van AI-modellen te beoordelen. Ook vindt voortdurende monitoring plaats en worden er regelmatig aanpassingen gedaan om nieuwe problemen of kwetsbaarheden aan te pakken. Verder integreren veel bedrijven functies voor gebruikersfeedback en communityrapportage. Hiermee kunnen gebruikers ongepaste content markeren, wat bijdraagt aan de voortdurende verbetering van AI-systemen.
Om een oplossing te vinden voor het AI-hallucinatieprobleem heeft OpenAI bijvoorbeeld bekendgemaakt hoe het van zijn gen-AI, ChatGPT, een betrouwbaarder hulpmiddel wil maken. Voorheen maakte het bedrijf gebruik van de ‘outcome supervision-benadering’ — waarbij de chatbot werd geleerd zichzelf te belonen als het een correct resultaat genereerde. Bij deze benadering richtte de bot zich dus alleen op het eindresultaat, ongeacht hoe de AI dit resultaat bereikte. Volgens het onderzoeksrapport introduceert het bedrijf nu een nieuwe strategie waarbij de AI-chatbot wordt getraind om zichzelf te belonen wanneer hij met succes een logische en correcte redeneringsstap voltooit voordat hij het definitieve antwoord geeft. De nieuwe strategie heet ‘process supervision’, waarbij de chatbot met behulp van een menselijke denkbenadering betrouwbaardere en bewustere resultaten genereert. Karl Cobbe, een OpenAI-onderzoeker, legt uit: “Het detecteren en beperken van de logische fouten of hallucinaties van een model is een cruciale stap naar de ontwikkeling van AGI (artificial general intelligence: kunstmatige algemene intelligentie). De motivatie achter dit onderzoek is om hallucinaties te minimaliseren, zodat modellen lastige redeneerproblemen goed kunnen oplossen”.
Is gen-AI aan het hallucineren of zijn wij het zelf?
Een ander onderwerp dat we in dit artikel willen bespreken is het feit dat wij mensen — en meer specifiek: ontwikkelaars en andere partijen met interesse in de technologie — deze hype rond generative AI hebben gecreëerd en de tech hebben geïntroduceerd als dé oplossing voor de problemen in de wereld. Bijvoorbeeld dat het ons werk efficiënter, spannender en betekenisvoller zal maken. Dat het onze regeringen responsiever en rationeler zal maken. Dat het ziekten zal genezen, een einde zal maken aan de armoede en zelfs de problemen van de klimaatverandering zal oplossen. Dat het een einde zal maken aan de eenzaamheid, ons in staat zal stellen een beter leven te leiden en ons meer vrije tijd zal geven. Dat het zelfs de menselijkheid zal terugbrengen die we als gevolg van de kapitalistische automatisering steeds meer zijn kwijtgeraakt.
Maar als je erover nadenkt, zijn het dan niet juist deze beweringen die de ware hallucinaties zijn? En sinds de lancering van ChatGPT eind vorig jaar zijn we voortdurend aan deze ‘hallucinaties’ blootgesteld. Het valt niet te ontkennen dat de grenzeloze mogelijkheden van gen-AI verleidelijk zijn. Maar het is van cruciaal belang dat we dit met veel meer voorzichtigheid benaderen en serieus nadenken over de onbedoelde gevolgen van onze eigen ‘hallucinaties’ in dit opzicht. We weten dat AI een enorm potentieel heeft om oplossingen te creëren voor problemen als ziekte, armoede en de problematiek rond klimaatverandering. Maar overhyping van deze technologie kan er ook toe leiden dat de fundamentele, systemische veranderingen — een complexe mix van sociale, economische en politieke factoren — die nodig zijn om deze uitdagingen het hoofd te bieden worden verwaarloosd. Het is duidelijk waarom mensen enthousiast zijn over generative AI, maar is het realistisch om te verwachten dat deze technologie, die het resultaat is van kapitalistische automatisering, de vervreemding en eenzaamheid zal oplossen die door onze huidige sociaal-economische systemen worden veroorzaakt? We moeten ons echt gaan richten op de ontwikkeling van AI die eerlijk en duurzaam is en die de problemen die het probeert op te lossen juist niet onbedoeld verergert.
Een laatste overweging
Hoewel de ambities voor generative AI enorm zijn, is het fenomeen van AI die hallucineert of ‘MAD’ wordt wanneer deze met synthetische content wordt getraind een toenemende reden voor bezorgdheid. Door deze recursieve cycli, die uiteindelijk tot een soort data-inbreeding leiden, riskeren we niet alleen dat onnauwkeurigheden en vooroordelen toenemen, maar ook dat de bestaande problemen in onze samenleving verergeren. Dit fenomeen onderstreept bovendien de behoefte aan een gen-AI die evenwichtig is en ontwikkeld met een bewuste focus op positieve maatschappelijke impact. Het is absoluut noodzakelijk om de evolutie van generative AI-technologieën nauwlettend in de gaten te houden. Gezien de morele dilemma’s en onvoorspelbare uitkomsten van gen-AI, is het cruciaal om deze technologie op een integere en verantwoorde manier te blijven ontwikkelen en toepassen. De ontwikkeling van gen-AI moet als doel hebben de wereldwijde levensstandaard te verhogen en de maatschappij te verbeteren, in plaats van deze te ondermijnen en we zullen dan ook een balans moeten vinden tussen vooruitgang en morele plicht. Dit evenwicht zal een beslissende rol spelen in de evolutie van AI en in hoe deze technologie onze toekomstige wereld zal vormgeven.
Share via: