Een vrouw krijgt een EEG waarvoor elektroden op haar hoofd zijn aangebracht. Daarnaast staat een zorgverlener die een tablet vasthoudt.

AI die je gedachten kan lezen: het einde van onze privacy?

gedachtelezende AI: goed nieuws voor mensen die niet kunnen spreken. Deze technologie zorgt ook dat we straks op hele andere manieren met computers communiceren. Maar zijn onze gedachten in de toekomst nog wel veilig?
  • Onderzoekers in Singapore ontwikkelen een systeem dat je gedachten kan visualiseren
  • Meta’s nieuwe AI kan je gedachten lezen
  • Deze AI zet jouw gedachten om in tekst
  • Ethische implicaties van AI die je gedachten leest

Nog niet zo lang geleden was het concept van gedachtelezen nogal vergezocht. Maar verschillende vormen ervan zijn sinds kort echt mogelijk, dankzij recente ontwikkelingen op het gebied van AI, waardoor algoritmen onze neurale patronen nu in begrijpelijke taal kunnen vertalen. De implicaties hiervan zijn natuurlijk nogal onthutsend. Bedenk je bijvoorbeeld dat dit binnenkort het einde zou kunnen betekenen van onze privégedachten — geen fijn idee. Met deze doorbraak kunnen we echter wel veel levens veranderen en mensen die niet kunnen praten — door ziekte of (aangeboren) letsel — een stem geven. Ook zal hiermee de manier waarop we met computers en andere elektronische apparaten communiceren volledig kunnen veranderen. Zo kan het zijn dat fysieke interfaces in de toekomst overbodig worden. Aan de andere kant is het idee dat iemand anders, misschien een bedrijf of de overheid, toegang heeft tot onze diepste gedachten voor de meeste mensen nogal verontrustend. Hierdoor realiseren we ons ook weer dat we bij elke technologische doorbraak ook goed moeten overwegen wat de mogelijke impact ervan zal zijn op ons leven en de samenleving. In dit artikel duiken we in de fascinerende wereld van gedachtelezende AI. We onderzoeken hoe het werkt en wat de mogelijke toepassingen ervan zijn. Ook belichten we de ethische kant en uitdagingen van deze ontwikkelingen.

“Dit AI-model is een soort vertaler. Het kan je hersenactiviteiten begrijpen, net zoals ChatGPT de natuurlijke talen van mensen begrijpt”.

Jaxin Qing, onderzoeker aan de Nationale Universiteit van Singapore

Onderzoekers in Singapore ontwikkelen een systeem dat je gedachten kan visualiseren

Aan de Nationale Universiteit van Singapore heeft een team van onderzoekers een technologische doorbraak bereikt die verstrekkende gevolgen zou kunnen hebben: een AI-systeem dat kan interpreteren en visualiseren wat iemand ziet, alleen op basis van zijn of haar hersengolfpatronen. Als onderdeel van het onderzoek kregen 58 vrijwilligers — terwijl ze verschillende beelden te zien kregen, zoals van dieren of architectonische wonderen — een MRI-scan. Tijdens deze sessies van 9 seconden wordt de hersenactiviteit van de deelnemer gemonitord om de complexe neurale reacties op visuele input vast te leggen. Deze gegevens worden vervolgens in het MinD-Vis AI-systeem ingevoerd om de hersenscans te analyseren en de specifieke patronen van hersenactiviteit met de bijbehorende beelden te leren associëren. Daarna creëert het systeem voor elke deelnemer een specifiek AI-model waarmee de unieke neurale handtekeningen van de persoon worden ‘gelezen’. Het resultaat is een computergegenereerde reconstructie van de beelden die de vrijwilligers zien, alleen op basis van hun hersenactiviteit.

“Dit AI-model is een soort vertaler. Het kan je hersenactiviteiten begrijpen, net zoals ChatGPT de natuurlijke talen van mensen begrijpt”, vertelt Jaxin Qing, een van de hoofdonderzoekers. “Dus de volgende keer dat je binnenkomt, doe je de scan, waarin je dit soort visuele stimuli ziet. Dan registreren we tegelijkertijd je hersenactiviteiten. Deze worden door onze AI omgezet in een taal die een Stable Diffusion kan begrijpen, en daarna worden de beelden gegenereerd die je op dat moment ziet. Zo lezen we dus als het ware je gedachten”. Chen Zijiao van de School of Medicine van de universiteit ziet een toekomst voor zich waarin dit systeem oplossingen zou kunnen bieden voor mensen met verminderde motorische vaardigheden. Hiermee zouden ze protheses met hun gedachten kunnen besturen. Ook mensen die niet kunnen praten zouden dankzij deze technologie weer kunnen communiceren.

Naast medische toepassingen kan deze technologie ook de manier waarop we in de digitale wereld communiceren volledig veranderen. Chen vertelt dat je deze technologie bijvoorbeeld in virtual reality-headsets kunt integreren, waardoor je moeiteloos met je gedachten door de metaverse kunt navigeren. Draagbare controllers worden hierdoor overbodig, waardoor de virtuele ervaring nog meeslepender en realistischer wordt. Hoewel deze ontwikkeling een aanzienlijke sprong voorwaarts betekent op het gebied van neurale decodering, zal het volgens het onderzoeksteam nog wel een tijdje duren voordat de technologie voor het publiek beschikbaar komt. Zij realiseren zich dat ze ook met uitdagingen te maken zullen krijgen, zoals de ethische en privacyproblemen rond het gebruik van hersengolfdata. “De privacyzorgen zijn het allerbelangrijkste, maar mensen kunnen zich bijvoorbeeld ook zorgen maken of deze informatie geanalyseerd of gedeeld wordt zonder voorafgaande toestemming”, zegt Juan Helen Zhou, universitair hoofddocent aan de National University of Singapore. “Dus als het gaat om privacy is het belangrijk om strikte ethische en juridische richtlijnen te hebben”.

Meta’s nieuwe AI kan je gedachten lezen

Het moederbedrijf van Facebook, Meta, heeft onlangs een onderzoekspaper gepubliceerd waarin een nieuw AI-systeem wordt geïntroduceerd dat visuele weergaven van het menselijk brein in realtime decodeert. Dit gebeurt door elke seconde duizenden ingewikkelde metingen van de hersenactiviteit vast te leggen. Daarna wordt een reconstructie gemaakt van hoe onze hersenen de beelden waar we naar kijken waarnemen en verwerken. Het systeem maakt gebruik van magneto-encefalografie (MEG), waarmee de magnetische velden worden gemeten die de neuronale activiteit van de hersenen genereren. Met deze meetmethode kunnen onderzoekers tot in detail volgen hoe de hersenactiviteit verloopt — alsof de wetenschappers direct meekijken met wat er elk moment in de hersenen gebeurt. Omdat er geen operatie aan te pas komt, gedragen de hersenen zich op een natuurlijke manier en krijgen de onderzoekers een beeld van hoe de hersenen precies werken.

De AI bootst ons vermogen om beelden te zien en interpreteren stap voor stap na. Eerst zet hij foto’s om in een vorm die hij kan gebruiken. Vervolgens koppelt hij onze hersenreacties op die foto’s aan zijn eigen versie ervan. Zo begrijpt hij niet alleen hoe de foto eruitziet, maar ook hoe wij die ervaren. Als laatste gebruikt de AI al deze informatie om de foto opnieuw te maken op een manier die zo dicht mogelijk bij ons eigen beeld komt. Door de stappen die onze hersenen doorlopen te simuleren, leert de AI dus beelden te zien zoals wij dat doen.

De AI van Meta biedt in de toekomst enorm veel mogelijkheden. Zo kun je met deze technologie zeer realistische virtuele ervaringen creëren. Ook kan het verlamde patiënten helpen communiceren door hun gedachten te ‘lezen’. Hoewel de technologie verschillende soorten objecten al vrij goed herkent, is er nog ruimte voor verbetering. Zo blijft het weergeven van kleine details nog lastig, vertellen de onderzoekers. Toch laat deze uitvinding al zien dat het ons leven in de toekomst op allerlei manieren positief kan beïnvloeden. De mogelijkheid om onze gedachten te lezen, te analyseren en na te bootsen roept echter ook belangrijke ethische vraagstukken op. Denk aan kwesties rondom transparantie, veiligheid en consent. Hoewel deze veelbelovende technologie ongetwijfeld veel goeds kan brengen, moeten we ervoor zorgen dat deze niet misbruikt wordt. We moeten oog hebben voor de risico’s en ervoor zorgen dat we deze krachtige tool zorgvuldig en verantwoord — en niet tegen iemands wil — inzetten.

Deze AI zet jouw gedachten om in tekst

Onderzoekers van de University of Technology Sydney hebben onlangs als eerste ter wereld een niet-invasief AI-systeem ontwikkeld dat gedachten kan omzetten in geschreven tekst. Om het systeem, genaamd DeWave, te gebruiken moet je een soort pet opzetten. De pet meet via een EEG je hersenactiviteit tijdens het lezen. Vervolgens zet het systeem de opgevangen signalen om in woorden en zinnen. “Dit is een vernieuwend onderzoek”, vertelt computerwetenschapper Chin-Teng Lin. “Voor het eerst is het gelukt om hersengolven om te zetten naar taal — zonder invasieve ingreep. Een belangrijke doorbraak”. In dit stadium zet DeWave gedachten 40 procent nauwkeurig om in tekst. Dat is al een verbetering van 3 procent ten opzichte van eerdere records. De onderzoekers willen in de toekomst een nauwkeurigheid van 90 procent bereiken, zodat het net zo betrouwbaar wordt als de vertaal- en spraakherkenningssoftware die nu op de markt is.

DeWave maakt het vertalen van hersensignalen naar taal eenvoudiger en in plaats van een operatie of grote, dure MRI-machines nodig te hebben, dragen gebruikers gewoon een EEG-kapje. Wat vooral indrukwekkend is, is dat het EEG-gegevens direct in woorden kan omzetten, zelfs zonder oogbewegingen te volgen. Deze methode splitst hersensignalen op in duidelijke, woordachtige stukjes, gebaseerd op de gedachte dat de hersenen korte pauzes nemen terwijl onze ogen van woord naar woord bewegen. DeWave gebruikt echter een geavanceerde encoder om EEG-golven in een gecodeerd formaat om te zetten. Deze code wordt vervolgens vergeleken met een ‘codeboek’, waarbij de dichtstbijzijnde overeenkomsten worden geïdentificeerd als matchende woorden. “Het is de eerste methode die discrete coderingstechnieken integreert in het vertaalproces van brein naar tekst — een innovatieve benadering van neurale decodering”, voegt Lin toe. “De integratie met large language models (LLM’s) zorgt ook voor nieuwe mogelijkheden op het gebied van neurowetenschappen en AI”.

Om de AI te trainen, gebruikten de onderzoekers een combinatie van bestaande taalmodellen, waaronder BERT en GPT. Voor de training werd gebruikgemaakt van hersenactiviteitsgegevens uit EEG-opnamen van lezende mensen. Deze gegevens hielpen het systeem hersensignalen aan specifieke woorden te koppelen, waardoor neurale activiteit aan taalelementen gelinkt kon worden. DeWave werd vervolgens verbeterd door het met een groot, open-source taalmodel te integreren, waardoor het met individuele woorden logische zinnen kon construeren. Het systeem presteerde vooral goed met werkwoorden, omdat deze unieke hersengolfpatronen creëren. Maar voor zelfstandige naamwoorden werden vaak soortgelijke woorden gevonden in plaats van exacte woorden, zoals ‘de man’ in plaats van ‘de auteur’. “We denken dat dit komt omdat wanneer de hersenen deze woorden verwerken, semantisch vergelijkbare woorden dezelfde soort hersengolfpatronen kunnen produceren”, vertelt Yiqun Duan, een computerwetenschapper bij UTS en hoofdauteur van het onderzoek. “Ondanks de uitdagingen levert ons model betekenisvolle resultaten op: trefwoorden worden op één lijn gebracht en vergelijkbare zinsstructuren worden gevormd”.

“Als een overheid of instelling de gedachten van mensen kan lezen, ligt dat heel gevoelig. Er moeten gesprekken op hoog niveau plaatsvinden om ervoor te zorgen dat dit niet kan gebeuren”.

Yu Takagi, neurowetenschapper en assistent-professor aan de Universiteit van Osaka

Ethische implicaties van AI die je gedachten leest

Het idee dat AI je gedachten kan lezen klinkt natuurlijk erg interessant. Maar het roept ook belangrijke ethische vragen op. Bijvoorbeeld: hoe werkt de technologie precies? Wat gebeurt er met al die persoonlijke informatie? Wie mag dit gebruiken en hoe? Het is belangrijk om onze privacy te beschermen en AI niet zomaar toegang tot onze persoonlijke gedachten en gevoelens te geven. “Voor ons zijn privacykwesties het allerbelangrijkste”, zegt Yu Takagi, neurowetenschapper en universitair docent aan de Universiteit van Osaka. “Als een overheid of instelling de gedachten van mensen kan lezen, ligt dat heel gevoelig. Er moeten gesprekken op hoog niveau plaatsvinden om ervoor te zorgen dat dit niet kan gebeuren”.

AI die gedachten kan begrijpen, zou onze gewoonten als consument flink kunnen veranderen. Experts maken zich zorgen dat social media en adverteerders deze technologie zouden kunnen inzetten en door middel van gepersonaliseerde content mensen te verleiden om veel meer geld uit te geven dan ze zich eigenlijk kunnen veroorloven. Hoewel je er altijd voor zou kunnen kiezen om je gedachten af te schermen, zou je je daardoor buitengesloten kunnen voelen in een wereld waarin gepersonaliseerde digitale interacties steeds meer de norm worden. Of, erger nog, het zou kunnen leiden tot een soort maatschappelijke achterstand ten opzichte van mensen die hun privacy wél prijsgeven in ruil voor meer personalisatie. Het punt is dit: als we weten dat onze diepste gedachten misschien niet langer privé zijn, zou dat ons gedrag diepgaand kunnen veranderen en onze vrijheid van denken en zelfexpressie ernstig kunnen beperken. En dat zou geen positieve ontwikkeling zijn.

Een laatste overweging

In dit artikel hebben we de ontwikkelingen van gedachtelezende AI onder de loep genomen en gezien dat er belangrijke doorbraken plaatsvinden die de samenleving ingrijpend kunnen veranderen. Maar we realiseren ons ook dat deze ontwikkelingen belangrijke ethische vragen oproepen. Wie zou er toegang moeten krijgen tot iemands gedachten, en onder welke omstandigheden? Welke maatregelen zijn nodig om misbruik of controle door een kleine groep te voorkomen? Hoe kunnen we onze vrijheden en privacy tegen excessieve surveillance beschermen? Ook is de vraag: hoe zal het ons denken en onze identiteit beïnvloeden als mensen, bedrijven of overheden toegang krijgen tot onze gedachten? En hoe zou onze samenleving eigenlijk functioneren als we wat we denken en voelen niet langer voor onszelf kunnen (of mogen) houden?

We moeten zorgvuldig nadenken over de ethische kant als we AI gaan ontwikkelen die gedachten kan lezen. Het is belangrijk om daarbij de menselijke waardigheid, toestemming en privacy centraal te stellen. De mogelijkheid om toegang te krijgen tot iemands gedachten biedt enerzijds opwindende vooruitzichten, maar kan — als we het niet goed aanpakken — ook riskant zijn. Als we AI op een verantwoorde manier ontwikkelen kan het ons meer vrijheid geven, maar zonder goede regulering kan dit bijvoorbeeld ook tot een subtiele, toenemende vorm van controle leiden. Het is cruciaal om nu te bepalen wat onze gedeelde waarden zijn en wat we al dan niet ethisch verantwoord vinden. Alleen op die manier kunnen we ervoor zorgen dat de technologie in dienst staat van de mensheid, in plaats van alleen maar nieuwe mogelijkheden na te jagen.