Kunstmatige intelligentie: kansen en risico’s in zorg en preventie
In de afgelopen jaren is het enthousiasme over kunstmatige intelligentie (AI) en machine learning sterk toegenomen. Geautomatiseerde systemen en robots zouden in de nabije toekomst oplossingen kunnen bieden voor de knelpunten in preventie en zorg. Dat roept echter wel belangrijke vragen op, onder meer op het gebied van verantwoordelijkheid, aansprakelijkheid en privacy. Stof voor een levendige discussie.

- Dilemma: ‘droomscenario’s’ of ‘doemscenario’s’?
- Discussierichting: betrouwbaarheid, vertrouwelijkheid, verantwoordelijkheid, controleerbaarheid etc.
- Onderzoek: Customised treatment for heart failure patients through the use of AI
- Onderzoekers/Sprekers: Bram van Ginneken (Radboudumc)
- Christiaan Vinkers (Amsterdam UMC)
- Commissielid: Corrette Ploem
Voor fysicus prof. Bram van Ginneken (Radboudumc Nijmegen) lijdt het geen twijfel: AI is een onmisbare oplossing voor het steeds ernstiger personeelstekort in de zorg. Het probleem is bekend: waar in de jaren '70 van de vorige eeuw nog maar één op twaalf mensen in de zorg werkzaam waren, is dat nu al één op zes en dit aandeel zou in de komende drie decennia moeten groeien naar één op drie om te voldoen aan de groeiende zorgvraag en de krimpende beroepsbevolking in een verouderende samenleving. Geen houdbare situatie, want er zijn ook nog veel andere beroepen die vervuld moeten worden om de samenleving en de economie draaiende te houden. Van Ginneken plaatste daar een ander plaatje naast: terug naar de één op twaalf, waarbij de overige taken vervuld worden door computers en robots. AI dus.
Toegenomen rekenkracht
Van Ginneken gaf toe dat hij niet altijd zo optimistisch is geweest over de mogelijkheden van AI bij de automatisering in zijn eigen vakgebied, de beeldanalyse. Voorspellingen dat computers het menselijke brein zouden gaan overtreffen, deed hij af als sciencefiction.
Daar kwam verandering in door de groeiende successen van de benadering die bekendstaat als machine learning , die gebruikmaakt van zogeheten neurale netwerken. In de late jaren '90 konden deze nog niet veel meer dan geschreven getallen herkennen in piepkleine plaatjes. Niet bepaald een aanpak die interessant klinkt voor de analyse van complexe beelden zoals röntgenfoto's en weefselcoupes.
De grote verandering kwam niet door slimmere software. Het belangrijkste is dat het computersysteem over voldoende rekenkracht beschikt. Vervolgens moet het systeem getraind worden met zorgvuldig geselecteerde voorbeelden, bijvoorbeeld met ladingen röntgenfoto's van mensen met en zonder tuberculose. In een serie stappen bepaalt het netwerk dan hoe die afbeeldingen gefilterd moeten worden, zodat zij in het ideale geval in twee bakjes terechtkomen: wel of geen tuberculose. Van Ginneken en zijn collega's ontwikkelden zo'n systeem, dat met name van grote waarde kan zijn in landen waar te weinig geschoold personeel is voor het beoordelen van röntgenfoto's.
Beelden
Zijn groep ontwikkelde een vergelijkbare analyse voor microscooppreparaten van weefsel dat weggenomen is bij patiënten met kanker. Patholoog dr. Peter Bult van het Radboudumc geloofde er niet zo in, na jaren van zulke beloftes van geautomatiseerde beeldanalyse. Van Ginneken vroeg hem om microscoopglaasjes waarop volgens Bult geen kankercellen te zien waren. Het systeem vond in een aantal ervan wel degelijk kleine klompjes kankercellen.
Bult was op slag bekeerd en vindt nu dat het onverantwoord is om de computer niet te laten meekijken met de patholoog. Vele andere voorbeelden die Van Ginneken presenteerde, laten zien dat AI-systemen nu al vaak de mens de baas zijn op het gebied van beeldanalyse.
ChatGPT als collega
Datzelfde geldt in toenemende mate voor het destilleren van relevante informatie uit tekst. En dat is uiteraard van groot belang in de zorg, waar veel relevante informatie ligt opgeslagen in dossiers in zogeheten vrije tekstvelden. Ook hier kunnen de toegenomen rekenkracht van computers en de opkomst van taalmodellen zoals ChatGPT doorbraken opleveren. Het team van Van Ginniken deed onlangs een pilot waarin ChatGPT gevraagd werd om aan de hand van de tekst in het medische dossier te komen tot een afweging over mogelijke diagnoses (een differentiaaldiagnose), compleet met uitleg over de verschillende opties. Het taalmodel ChatGPT presteerde ongeveer net zo goed als (ervaren) artsen, zonder dat voor deze toepassing een AI-systeem getraind hoefden te worden.
Op AI gebaseerde systemen presteren anno 2024 dus al behoorlijk goed in de analyse van diagnostische beelden en van de verslagen van het gesprek met de patiënt en het lichamelijk onderzoek. Van Ginneken verwacht dat rond 2030 AI-gebaseerde robots in staat zullen zijn om multimodale input (spraak, tekst, beelden, video en sensordata) te integreren, erop te reflecteren aan de hand van (online) kennis en output te leveren in de vorm van spraak, tekst en bewegingen.
Kortom, de robots van de nabije toekomst zijn in principe in staat om een waardevolle bijdrage te leveren naast artsen, verpleegkundigen en andere zorgverleners van vlees en bloed. In sommige opzichten, bijvoorbeeld waar het gaat om beeldanalyse en diagnostiek, kunnen zij zelfs superieur zijn aan hun ademende collegae. Van Ginneken stelde dan ook de prikkelende vraag in hoeverre het ethisch is om bijvoorbeeld in de radiodiagnostiek géén gebruik te maken van een AI-systeem.
Toegang tot wetenschappelijke kennis
Psychiater prof. Christiaan Vinkers (Amsterdam UMC) presenteerde AI als mogelijke oplossing voor een ander modern probleem: de gigantische stapel wetenschappelijke publicaties, waaraan elk jaar 1 miljoen nieuwe artikelen worden toegevoegd. Zelfs voor superspecialisten is het onmogelijk om alles te lezen wat er op hun vakgebied verschijnt. Het maken van een kennissynthese als basis voor een richtlijn of een nieuw onderzoek kost dan ook erg veel tijd en energie. Patiënten of familieleden die kennis willen nemen van relevante vakliteratuur, worden bovendien afgeschrikt door de ontoegankelijke formulering van deze publicaties. Zij zoeken daardoor eerder kennis op online discussiefora, waar de kwaliteit van de informatie zeer wisselend is.
Vinkers liet zien dat AI-gebaseerde toepassingen zoals het programma EvidenceHunt, waarbij hij zelf betrokken is, aanzienlijk beter werkt dan PubMed in het filteren van relevante informatie. Het is zelfs in staat om in zeer korte tijd het grootste deel van de studies te vinden in de Cochrane reviews, die in een proces van vele maanden tot stand komen. Voor een eerste snelle verkenning of een literatuurstudie is AI dus nu al een zeer waardevol hulpmiddel. Dit zal in de toekomst alleen maar verbeteren.
Vinkers is ook betrokken bij een project binnen de Nationale Wetenschapsagenda, dat gericht is op de preventie van stress. De hoop is dat AI burgers kan helpen om signalen van stress bijtijds te herkennen en zo stressgerelateerde problematiek zoals burn-out en depressie te voorkomen.
Beperking
In de paneldiscussie kwamen ook de nadelen en beperkingen van AI aan de orde, mede aan de hand van vragen uit het publiek en kritische opmerkingen van panellid prof. Corrette Ploem (bijzonder hoogleraar Recht, zorgtechnologie en geneeskunde aan de Universiteit van Amsterdam en lid van de CCMO). Een bekend probleem van AI-modellen is bijvoorbeeld dat deze niet altijd bruikbaar zijn buiten de context waarin zij getraind zijn. Een model dat heel goed in staat is om röntgenfoto's in ziekenhuis A te beoordelen, is niet zonder toetsingsprocedure inzetbaar in ziekenhuis B. Als het systeem getraind is op dermatologische afwijkingen van mensen met een witte huid, is het vaak minder goed in staat om zulke afwijkingen te beoordelen bij mensen met een getinte huid.
Regelgeving voor AI, met name in de zorg, zou moeten eisen dat het systeem zelf ‘ziet’ dat de data die het krijgt aangeboden afwijken van het soort data waarmee het getraind is. De kwaliteit van de data waarmee het systeem getraind is, is verder natuurlijk bepalend voor de kwaliteit van de uitkomsten.
Privacy en kostenbesparing
Ondanks het enthousiasme van de twee inleidende sprekers gebeurt er in de dagelijkse praktijk nog niet zo heel veel met AI-gebaseerde expertsystemen. Zowel de radiologische systemen die Van Ginneken beschreef, als predictiemodellen in andere vakgebieden zoals de psychiatrie spelen nog nauwelijks een rol in de zorg. Ziekenhuizen en maatschappen van specialisten investeren blijkbaar niet graag in systemen die de zorg goedkoper zouden kunnen maken. En dat is logisch, want ze hebben geen enkele incentive om dat te doen, stelde Van Ginneken vast.
Privacy is een ander punt van aandacht. Niemand weet zeker wat aanbieders van taalmodellen zoals ChatGPT doen met de data die de gebruiker uploadt. Het is dus nu nog niet mogelijk om op ChatGPT gebaseerde systemen in te zetten in de zorg en standaard zorgdata te uploaden. Dit probleem zal waarschijnlijk in de nabije toekomst worden opgelost, maar verdient wel aandacht.
Ploem vroeg daarnaast aandacht voor de bredere context waarin AI wordt ingezet en wat de kosten zijn voor de samenleving en het klimaat. Daarover is op dit moment nog niet veel te zeggen, maar het zijn wel belangrijke punten van aandacht. AI kost (veel) rekenkracht en dus energie. De impact van deze technologie op maatschappij en zorgpraktijk is ook moeilijk te voorspellen. Sommige mensen zullen blij zijn als zij dankzij AI meer tijd overhouden voor hun naasten, hun tuintje of dat goede boek, anderen maken zich zorgen over het verlies aan zingeving en sociaaleconomische status als computers en robots hun baan overnemen.
Zodra besluitvormingssystemen een grotere rol krijgen, zullen zij op dezelfde manier beoordeeld moeten worden als geneesmiddelen en medische apparatuur.
Verantwoordelijkheid
Ploem ging uitgebreid in op de aansprakelijkheidsaspecten van AI-technologie. Net als bij andere hulpmiddelen en ondersteunend personeel zal het in principe de arts zijn die verantwoordelijk blijft voor beslissingen die op grond van AI genomen worden. Daar zijn echter grenzen aan, als de arts redelijkerwijs meent te kunnen vertrouwen op een apparaat, kan de verantwoordelijkheid bij de leverancier komen te liggen. Zodra besluitvormingssystemen een grotere rol krijgen, zullen zij op dezelfde manier beoordeeld moeten worden als geneesmiddelen en medische apparatuur.
Ploem vond het belangrijk dat daarbij gelet wordt op zowel onderbehandeling als nodeloze medicalisering ten gevolge van geautomatiseerde besluitvorming. In de levendige discussie werd duidelijk dat ook deze innovatieve technologie kansen biedt voor verbetering van de zorg, maar ook ethische, juridische en andere vragen oproept die niet allemaal op een vrijdagmiddag te beantwoorden zijn.