- Google Brain gebruikt patiëntengegevens om medische resultaten te voorspellen
- Was het project succesvol? We weten het binnenkort
- DeepMind heeft medische gegevens gebruikt zonder toestemming van de patiënten
- De NHS schendt privacyregelgeving en Google belooft beterschap
Voor ziekenhuizen – en uiteraard voor de patiënt – is een hoge kwaliteit zorgverlening van cruciaal belang. En om beter in te kunnen schatten wat een patiënt nodig heeft, zouden zorgverleners echt baat hebben bij een nauwkeurig ‘gevoel’ over mogelijke medische resultaten. Moet de patiënt opgenomen worden? Zal de patiënt binnenkort herstellen? Hoe lang moet de patiënt nog in het ziekenhuis blijven? Komt de patiënt binnenkort terug voor hetzelfde probleem? De antwoorden op dit soort vragen hebben grote invloed op de beschikbaarheid van schaarse apparatuur, zoals bijvoorbeeld computertomografie (CT) scanners, of hoe snel een patiënt bij een arts terecht kan.
In een pilotstudie in de VS heeft Google Brain testen gedaan met hun kunstmatige intelligentie, machine learning algoritmen en geanonimiseerde patiëntendossiers. Op basis van 11 jaar persoonlijke patiëntgegevens van twee ziekenhuizen wilde Google Brain aantonen dat een state-of-the-art systeem predictive analytics kan bieden waarmee ziekenhuizen hun patiënten beter kunnen helpen. Google meldt verbluffende resultaten, maar deze moeten nog door onafhankelijke partijen worden bevestigd. Tegelijkertijd hebben recente projecten in het Verenigd Koninkrijk waarbij Google betrokken is, geleid tot grote bezorgdheid onder privacyverdedigers. Dat brengt ons tot de vraag in hoeverre de risico’s van het gebruik van big data in de gezondheidszorg eigenlijk de moeite waard zijn.
Google Brain gebruikt patiëntengegevens om medische resultaten te voorspellen
Volgens Dave Gershgorn van Quartz werd de data verstrekt door “twee ziekenhuizen: de University of California San Francisco Medical Center (2012-2016) en de University of Chicago Medicine (2009-2016)”. Christina Farr, die verslag uitbrengt voor CNBC, zegt dat deze medische centra “de persoonlijke gegevens van miljoenen medische dossiers hebben verwijderd en de dossiers vervolgens met het onderzoeksteam van Google hebben gedeeld”. Het doel was om Google Brain te voorzien van ruwe data om voorspellende analyses mee uit te voeren.
Maar het beoordelen van zoveel data is veel moeilijker dan je denkt. Deze dossiers leverden bijna 47 miljard datapunten op, meldt Laurie Beaver voor Business Insider. Dat is veel meer dan wat onderzoekers aankunnen, en Google Brain zet daar zeer geavanceerde machine learning algoritmes voor in. Google’s KI gebruikt cognitieve netwerken die net zo functioneren en leren als onze hersenen, waarbij informatie wordt gefilterd en gesorteerd, waarna voorlopige conclusies voor verdere analyse worden doorgegeven aan een volgend ‘niveau’. Google Brain maakte hiervoor gebruik van drie van deze neurale netwerken.
Deze machine learning algoritmes filteren de informatie in de dossiers op wat belangrijk is en toetsen de gegevens aan resultaten of uitkomsten die al bekend zijn. Daarbij kregen de algoritmes met nog andere complexiteiten te maken. Veel van deze patiëntendossiers bevatten namelijk handgeschreven aantekeningen, en aangezien elke arts en verpleegkundige een ander handschrift heeft en dingen anders formuleert, moest de KI van Google Brain ook leren om handschriften te decoderen. Bovendien moest het belangrijke woorden aan belangrijke gebeurtenissen weten te koppelen. Gershgorn schrijft: “Na duizenden patiënten geanalyseerd te hebben, wist het systeem te identificeren welke woorden en gebeurtenissen belangrijk waren voor het voorspellen van medische resultaten en leerde het minder aandacht te besteden aan wat het als overbodige informatie beschouwde”.
Was het project succesvol? We weten het binnenkort
In een verslag dat nog niet door vakgenoten is beoordeeld, claimt Google “dat het een enorm succesvol project was en dat er enorme verbeteringen zijn ten opzichte van de huidige, traditionele modellen die worden gebruikt om medische resultaten te voorspellen. Google Brain was bijvoorbeeld in staat om het overlijden van een patiënt 24-48 uur eerder te voorspellen dan de huidige methodes. Dit zou artsen meer tijd geven om levensreddende behandelingen te starten”. Als deze resultaten echt zijn, is dat een enorme doorbraak. Maar laat de staande ovatie nog maar even achterwege.
Want het feit dat de University of San Francisco Medical Center en de University of Chicago Medicine gevoelige informatie zonder toestemming van de patiënten hebben gedeeld is natuurlijk niet in de haak. Deze gegevens waren weliswaar ‘anoniem’, maar mochten deze instellingen daar zomaar beslissingen over nemen? Dit zijn serieuze redenen tot bezorgdheid, dezelfde redenen waarom Google en haar dochteronderneming DeepMind Technologies Ltd. in het Verenigd Koninkrijk momenteel verwikkeld zijn in een controverse over deze technologie en hun aanpak.
DeepMind gebruikte ook medische gegevens zonder toestemming van de patiënten
In 2015 werd er een overeenkomst gesloten tussen Google en de Royal Free London NHS Foundation Trust om een app te ontwikkelen met de naam Streams, die artsen zou helpen acuut nierletsel (AKI) te behandelen, een medische aandoening die alleen al in het Verenigd Koninkrijk elk jaar ten minste 40.000 slachtoffers eist. Maar in een peer-reviewed verslag, gepubliceerd in het tijdschrift Health and Technology, merken Julia Powles en Hal Hodson op dat het hier ging om “de overdracht van identificeerbare patiëntendossiers zonder uitdrukkelijke toestemming, met als doel de ontwikkeling van een app voor klinische waarschuwingen met betrekking tot nierschade”. Om een idee te krijgen van de omvang van de controverse, is het belangrijk om te weten dat Royal Free “een van de grootste zorgverleners is in Groot-Brittannië’s publiek gefinancierde National Health Service”, en dat dit de privacy van miljoenen patiënten in het Verenigd Koninkrijk in gevaar heeft gebracht.
De regelgeving over wat Google met deze gegevens mocht doen was niet bepaald soliede. Sterker nog, patiënten hoefden geen toestemming te geven voor het gebruik van hun data. Powles en Hodson waarschuwen, “De gegevens die DeepMind in het kader van het project Royal Free verwerkt heeft, werden aan het bedrijf overgedragen zonder uitdrukkelijke toestemming van – of zelfs maar een melding aan – welke patiënt in de dataset dan ook. Of het nu ging om opgenomen, ontslagen of verplaatste patiënten binnen de ziekenhuizen van Royal Free over een periode van meer dan vijf jaar (vanaf 2010)”.
Je hoeft geen privacywaakhond te zijn om je daar zorgen over te maken, en Powles en Hodson benadrukken dat dit geen onschuldige ‘fouten’ waren. Miljoenen dossiers, compleet met identiteitsgegevens, werden door de NHS aan Google overgedragen. Erger nog, gezien de omvang van het project, was wat Google en de NHS van plan waren een stuk omvangrijker dan hun publieke verklaringen doen vermoeden. Misschien zijn de onbeantwoorde vragen wel het meest zorgwekkend. Powles en Hodson schrijven: “Op de vraag waarom DeepMind, een KI-bedrijf dat eigendom is van datamining en reclamereus Google, de juiste partij was om een app te bouwen die voornamelijk functioneert als data-integrerende gebruikersinterface, is door DeepMind of Royal Free nooit een duidelijk antwoord gegeven”.
De NHS schendt de privacyregelgeving en Google belooft beterschap
Toen deze kwestie in de openbaarheid kwam, erkenden noch de NHS noch Google’s DeepMind enige misstand. Zoals BBC News rapporteert, “Op dat moment zei Google DeepMind dat er ‘grote fouten’ in het rapport stonden die een verkeerde indruk gaven van de manier waarop Google en de Royal Free gegevens gebruikten”. Daar kwamen Dominic King en Mustafa Suleyman van DeepMind later op terug. “We hebben de complexiteit van de NHS en van de regelgeving omtrent patiëntgegevens onderschat”, zeiden ze in een verklaring geciteerd door de BBC, “maar ook de potentiële angst onder het publiek dat een bekend technisch bedrijf zich bezighoudt met de gezondheidszorg… We hebben dat onderschat en we moeten beterschap beloven”. De Royal Free Trust heeft aangegeven dat ze “de bevindingen van het ICO hebben aanvaard en al goede vooruitgang hebben geboekt bij het aanpakken van de zaken waarover het ICO zich zorgen maakt”. Maar is dat genoeg om bezorgdheden over gegevensbeveiliging en privacy weg te nemen?
DeepMind zegt dat ze zich nu inzetten om patiënten en het publiek bij het proces te betrekken. En volgens Suleyman is dit “Een geweldige kans om te bewijzen wat we altijd hebben geloofd: als we aspecten als ethiek, verantwoording en betrokkenheid goed voor elkaar hebben, kunnen nieuwe technologiesystemen een enorm positieve en sociale impact hebben”. Misschien is dit een historisch moment voor zowel patiëntenzorg als privacy. De tijd zal het leren.
Als het succes van Google Brain inderdaad wordt bevestigd, is dat zeker een enorme ontwikkeling voor de toekomst van de patiëntenzorg. En korter in het ziekenhuis, betere medische behandelingen en langer, gezonder leven willen we allemaal. Maar zonder fatsoenlijke beschermingsmaatregelen kunnen ontwikkelingen in de KI-gezondheidszorg naast onze levens redden, óók onze privacy bedreigen. En ook al is Google’s bedrijfsmotto “Don’t be evil”, is het waarschijnlijk onverstandig om er vanuit te gaan dat bedrijven zelfreguleren.
Share via: