...

In de praktijk zien we instrumenten die gebruikmaken van generatieve AI in steeds meer zorginstellingen verschijnen, met name als doel de administratieve lasten te verlichten. Het gaat bijvoorbeeld om geautomatiseerde verslaglegging via spraakherkenning, het samenvatten van patiëntendossiers of het ondersteunen van de communicatie met patiënten via chatbots. Deze toepassingen worden aangeboden door softwareleveranciers of ontwikkeld door de zorginstellingen zelf.Hoewel de inspectie de voordelen van generatieve AI ziet, vraagt de inzet van de relatief onbekende en nieuwe technologie om extra waakzaamheid. De IGJ beargumenteert dat veel toepassingen nog maar kort op de markt zijn en de impact op patiëntenzorg nog deels onbekend is. Ook is er nog het vraagstuk omtrent privacy, waarbij de AI toegang heeft tot gevoelige patiënteninformatie."AI-modellen kunnen op basis van ingevoerde data nieuwe informatie genereren, die mogelijk onjuist of onvolledig is. Dit kan leiden tot risico's zoals medicatiefouten of een verkeerde beoordeling van een patiënt door een arts", aldus de inspectie, die zorgaanbieders adviseert om vóór de implementatie van AI een grondige risicoanalyse uit te voeren. "Zorgaanbieders moeten beschikken over voldoende kennis van de risico's en beperkingen van AI, zowel bij de aanschaf als het gebruik van dergelijke toepassingen. Dit kunnen ze doen door vooraf te onderzoeken welke data de AI van patiënten nodig heeft om te kunnen functioneren, wat het redenatieproces van de toepassing is en door constant de resultaten te blijven controleren."Daarnaast verwijst de IGJ naar de Europese AI-verordening, die tussen 2025 en 2027 van kracht wordt en specifieke eisen stelt aan zowel ontwikkelaars als gebruikers van AI. Het doel van de Europese wet is dat AI-systemen veilig zijn en fundamentele rechten respecteren. Zo moet bij het gebruik van chatbots bijvoorbeeld duidelijk zijn dat daar AI achter zit.