Artificiële intelligentie (AI) is niet uit het nieuws weg te slaan. In een nieuw boek buigt een team van experts zich over de meerwaarde en valkuilen van AI in de gezondheidszorg.
...
Het boek, samengesteld door Sigrid Sterckx (docent ethiek en politieke en sociale filosofie aan de Universiteit Gent) en Wim Van Biesen (nefroloog en medisch diensthoofd Nierziekten aan het UZ Gent), biedt een erg volledige stand van zaken van AI-technologie in de gezondheidszorg, bevat praktische voorbeelden uit de praktijk, en gaat in op maatschappelijke en ethische consequenties. In de brede media staan vandaag vooral large language models (LLM's) zoals ChatGPT in de belangstelling. Van Biesen, die al dertig jaar met AI bezig is, vindt die erg fascinerend. "LLM's kunnen heel snel informatie doorlezen, verwerken en er teksten mee genereren. Je kunt mathematisch beschrijven wat er in zo'n model gebeurt, maar hoe het eigenlijk werkt, begrijpen we niet goed." Een medisch LLM zou bijvoorbeeld nuttig zijn om een patiëntendossier op te zoeken en samen te vatten voor de behandelend arts, en er meteen een versie van te maken in een taal die de patiënt begrijpt, zegt Van Biesen. "Zelf een dossier doorzoeken via CoZo is afgrijselijk omslachtig - dit zou een grote tijdwinst zijn. Bij AI stelt men zich soms blinkende robotachtige figuurtjes voor die de mens de hand reiken, maar in de gezondheidszorg hebben we vooral baat bij wat men 'boring AI' noemt: onsexy toepassingen die de efficiëntie verhogen." AI heeft de grootste meerwaarde wanneer er al digitale informatie bestaat en de uitkomst duidelijk is, zegt Van Biesen. "Het is geen verrassing dat AI binnen beeldvorming zo populair is. Je hebt een breuk of je hebt geen breuk, er is een bloeding of er is geen bloeding. Een tumor omschrijven, dat is gesneden brood voor AI. Idem bij de ontwikkeling van nieuwe geneesmiddelen, waar AI nuttige moleculen kan identificeren en de eigenschappen ervan kan voorspellen. Daar kun je niet tegen zijn." "Je komt al op gevaarlijker terrein als je te maken krijgt met associaties", zegt Van Biesen. "Je kan op basis van genetisch materiaal vaststellen dat iemand 6% kans heeft om tussen dit en 50 jaar een pancreastumor te ontwikkelen. Goed om weten, maar wat doe je daarna met die kennis?"Dat is ook het probleem met op AI gebaseerde apps waarmee mensen zelf vlekjes op hun huid kunnen analyseren, legt Van Biesen uit. "We hebben de positieve en negatieve predictieve waarde van die tests bekeken, en afgezet tegen de prevalentie van huidtumoren. Wat bleek: als iedereen die app zou gebruiken, heb je alleen al in Oost-Vlaanderen 600 extra dermatologen nodig om alle mensen met een positief resultaat te controleren - waarbij het grootste deel valspositief zal zijn. De technologie is niet slecht, maar het theorema van Bayes is onverbiddelijk: als iets weinig voorkomt en de test is positief, dan is de kans klein dat het resultaat ook echt positief is." Er zijn ook domeinen waar AI niet kan helpen. "Bij een oncologische behandeling moet je je afvragen: wat vindt de patiënt zelf belangrijk? Wil hij vier weken langer leven, waarvan twee in het ziekenhuis? Of kiest iemand voor de kans om nog één keer met familie op reis te gaan? Ik zie AI die beslissing voorlopig nog niet maken", zegt Van Biesen. Het mag duidelijk zijn dat het boek geen onkritische lofzang op AI is. "De technologie zelf komt er wel, daar hoeven we niet aan te twijfelen", zegt Sigrid Sterckx. "Maar de echte vraag is: hoe gaan we die gebruiken en wat zijn de gevolgen? Waar leggen we de nadruk op? Willen we enkel nieuwe moleculen en betere genetische analyses, of denken we ook na over de maatschappelijke invulling ervan? Hoe draagt dit uiteindelijk bij aan betere zorg voor de mens?" Want zoals elke technologie is AI niet neutraal. Sterckx geeft het voorbeeld van een 'intelligente pil' die registreert wanneer de patiënt hem neemt. "Tijdens lezingen merk ik dat artsen daar enthousiast op reageren: 'Eindelijk weet ik zeker of mijn patiënt zijn medicatie trouw neemt en kan hij niet meer liegen!' Maar dat roept vragen op. Mag een patiënt dan nooit liegen? En omgekeerd, mogen artsen dan wél liegen? Een therapeutische relatie is toch gebouwd op vertrouwen, niet op controle?" "Je kan dan zeggen dat de patiënt mag weigeren zo'n pil te gebruiken. Maar als je daarvoor kiest, geef je impliciet al aan dat je iets te verbergen hebt. Verzekeringsmaatschappijen zouden daar meteen op inspelen: wie de slimme pil trouw neemt, krijgt korting, terwijl weigeraars een hogere premie betalen of zelfs geen verzekering meer krijgen." In de VS worden LLM's al volop gebruikt voor het opnemen, transcriberen en samenvatten van consultaties. "Dat klinkt efficiënt en tijdbesparend, maar het betekent wel dat álles wat in de spreekkamer wordt gezegd, wordt vastgelegd", merkt Sterckx op. "Dat lijkt me een beangstigende gedachte. Wat als een patiënt ontevreden is en met het transcript naar een advocaat stapt, of naar een andere arts voor een second opinion? Kunnen artsen dan nog vrijuit spreken, zonder angst dat hun woorden tegen hen gebruikt worden?" Een ander potentieel gevaar van AI is deskilling (vaardigheidsverlies). "Als mensen zelf geen beslissingen meer hoeven te nemen, verliezen ze de vaardigheid om dat te doen", verduidelijkt Van Biesen. "Je ziet dat bijvoorbeeld bij luchtvaartpiloten die te veel vertrouwen op de automatische piloot. Je moet een systeem zo ontwerpen dat de arts actief blijft nadenken. In plaats van kant-en-klare beslissingen voor te schotelen, kan AI bijvoorbeeld vragen: 'Heb je ook hieraan gedacht?' Uit onderzoek blijkt dat artsen dat soort suggesties niet erg vinden. Wat hen wél afschrikt, is een systeem dat dwingend zegt: 'Je moet nu dit doen'. Geen enkele arts wil dat." "Als buitenstaander vind ik het bevreemdend om te zien waar dit naartoe gaat", zegt Sterckx. "Wat als nieuwe generaties zorgverleners automatisch aannemen dat AI-systemen superieur zijn aan henzelf? Kunnen we de opleiding dan inkorten tot drie jaar, of vervangen we artsen deels door ingenieurs? Het is een ongemakkelijke vraag, de elephant in the room waarover je nauwelijks mag spreken. Men beweert dat artsen door hun opleiding 'geïmmuniseerd' worden tegen deskilling, maar dat is een illusie." Toch is het boek zeker geen pleidooi tegen het gebruik van AI in de gezondheidszorg, zegt Van Biesen. "Het lijkt vandaag soms wel alsof je verplicht enthousiast moet zijn wanneer je het over AI hebt. Zodra je oproept tot voorzichtigheid, word je weggezet als iemand die tegen technologie is. Uiteraard niet. Ik ben niet al 30 jaar met AI bezig omdat ik ertegen ben. AI kan veel, maar we moeten nadenken over de context waarin we het gebruiken en de mogelijke valkuilen. Het is geen wondermiddel dat alle problemen in de gezondheidszorg oplost."