AI in de zorg. Update en juridische kaders.
Inleiding
Mijn ervaring met ChatGPT tot op heden is nog steeds die van verbazing: zo snel zo veel adequate respons. Natuurlijk weet ik dat er soms gehallucineerd wordt o.b.v. Large Language Models. ChatGPT hielp me bij nieuwe klachten van iemand die al bekend is met een combinatie van meerdere autoimmuun-stoornissen. Door mijn opbouw in ‘prompts’ was ik snel op het niveau van een medisch specialist. ChatGPT stelde me de vraag of ik wilde weten welke concrete lab-aanvragen de internist of immunoloog kan overwegen ter uitsluiting van de ziekte van Waldenström.
Op 18 september 2025 woonde ik een bijeenkomst bij van de KNMG Oost-Brabant met de titel AI in de zorg. Update en juridische kaders. De inleidingen waren verhelderend en de discussies interessant.
Lees hier het verslag van deze avond.
“Ik koos de term ‘kunstmatige intelligentie’ omdat dit het doel leek te vangen: machines maken die dingen kunnen doen die intelligentie vereisen als mensen ze zouden doen.”
John McCarthy, informaticus die de term AI introduceerde in 1955 tijdens een voordracht in
Prof. Bram van Ginniken
hoogleraar functionele beeldanalyse in Nijmegen, onderscheidde enkele fasen in de ontwikkeling van AI. Van 1980 tot 2011 waren ingenieurs, ook hijzelf, bezig met handmatig filters te ontwerpen om bepaalde patronen te versterken of ruis te onderdrukken. Subsampling en convolutie gebeurde op basis van menselijke domeinkennis. Filters werden niet getraind maar vooraf gekozen en gedefinieerd door nadenkwerk van mensen. Uit de gefilterde data werden kenmerken handmatig ontworpen (b.v. hoeken, texturen, histogrammen, statistieken). Alleen in de laatste stap werd een classificering getraind met data. Beperking bij deze aanpak was, dat elke stap in deze keten los van de rest werd geoptimaliseerd.
Dat veranderde in 2012 met het inzicht (bij AlexNet) dat je alle filters, convoluties en subsampling-lagen kunt doen leren (zogeheten backpropagation) en dat je het geheel ‘end-to-end’ kunt trainen op ruwe input, zodat het systeem zélf leert welke representaties nuttig zijn. Daarmee wordt dan de hele keten gemeenschappelijk geoptimaliseerd.
Hierna liet van Ginneken voorbeelden zien wanneer de computer de mens te slim af werd.
Zo toonde hij dat een deeplearning algoritme de patholoog-anatoom in 2017 ‘verslagen’ heeft in het detecteren van lymfeklier metatsasen bij vrouwen met borstkanker (JAMA). En vanaf medio 2023 werd borstkanker vaker ontdekt door AI dan door artsen (The Lancet).
Vervolgens schetste hij een beeld naar de toekomst in analogie met de wet van Moore uit 1965 over het steeds krachtiger worden van de rekenkracht van chips (‘Het aantal transistors in een geïntegreerde schakeling elk jaar zal verdubbelen’). In 1998 zag Yann LeCun, nu Chief AI Scientist bij Meta, dat de betere aanpak op weg naar AI bestaat uit (convolution)trainen van het juiste netwerk. Dat betekende toen 60 000 parameters trainen. Dat werd alsmaar meer en omvangrijker toegepast, hetgeen mogelijk was geworden door nieuwe chips (GPU’s). In 2012 werden het 1000 labels i.p.v. 10 waardoor het aantal te trainen naar 60 miljoen ging. Om op 175 miljard uit te komen moet dat getal theoretisch nog een factor 3000 omhoog en dat zal gaan gebeuren; zo was er slechts 3 jaar nodig om de 3de versie van ChatGPT te lanceren. [GPT-4 heeft naar schatting 1–2 biljoen parameters en dat is dus al een factor 10 hoger. Maar dat is nog wel een factor 300 minder dan het aantal synapsen in een menselijk brein, aldus meldt de huidige gratis versie].
Van Ginniken kwam extrapolerend op zijn stelling:
“In 2060 hebben we computers die net zoveel rekenkracht per seconde hebben als ons brein met synapsen”
Met de robottechnologie die volop in ontwikkeling is, maakte van Ginniken het voorstelbaar dat veel taken in de zorgsector overgenomen gaan worden door machines, door ‘humanoids’. Dat gaat ook over wassen, over steunkousen aantrekken, medicatie klaarzetten, naast diagnostiek en interventies in elke medische discipline. Softwaretechnisch zijn dat niet de grootste uitdagingen.
Waarom en waartoe dit relevante ontwikkelingen zijn, had hij al laten zien in zijn proloog door te wijzen op de economische noodzaak ervan. In de jaren 70 was 1 op de 12 mensen werkzaam in de zorg; nu hebben we meer dan 1 op de 6 werkenden nodig in de zorg, en bij extrapolatie zou in 2060 1 op de 3 in de zorg moeten werken. Iedereen begrijpt dat dat onhoudbaar is omdat het uitgaven aan onderwijs en aan veiligheid verdringt.
“In de afgelopen decennia is slechts in 2 jaar, de zorg minder sterk gegroeid dan dat de economie in dat jaar groeide”, aldus van Ginniken. Zijn stelling en verwachting is dat technologie de ‘zorgcrisis’ kan oplossen:
“In 2060 is driekwart van het werk overgenomen door machines, door intelligente robots.”
Mr. Drs. Shirin Slabbers,
juriste bij de VVAA, gaf een interactieve presentatie over de juridische aspecten van AI voor artsen. De juridische kaders om rekening mee te houden komen voort uit diverse nationale en internationale wetten: 1. de Europese AI-Act, 2. de AVG, 3. de Wkkgz, 4. de WGBO, 5. regelgeving wetenschappelijk onderzoek en 6. regelgeving medische hulpmiddelen.
De Europees AI-Act zegt dat zorginstellingen moeten zorgen voor AI-geletterdheid, er moet controle op zijn, en er moet altijd op gelet worden of er ethische dilemma’s zijn.
De plicht tot transparantie betekent dat een patiënt geïnformeerd moet worden wanneer de arts een AI-tool gebruikt. Dit is ook een plicht van de arts zelf.
Als een zorgaanbieder iets nieuws koopt, dan moeten zorgvuldig “logs” gemaakt worden bij gebruik ervan, en die moeten minimaal een half jaar bewaard worden.
De Wet kwaliteit, klachten en geschillen zorg, de Wkkgz, houdt de zorgverlener verantwoordelijk voor zorgvuldige toepassing bij inzet van AI. Technologie moet voldoen aan professionele standaarden en toetsbaar zijn voor toezichthouders, en informatie moet begrijpelijk zijn voor de patiënt.
De Wet op de Geneeskundige Behandelingsovereenkomst, de WGBO, stelt dat geen persoonlijke of medische informatie van een patiënt gedeeld mag worden met bijvoorbeeld een externe AI-toepassing, omdat die mogelijk herleidbaar is en kan worden gebruikt om het model mee te trainen.
Als AI wordt ingezet dan moet je als zorgverlener dit kenbaar maken aan de patiënt.
Er is altijd aandacht nodig voor de rechten van de patiënt. Zo heeft deze recht op een kopie van zijn dossier met hetgeen ten grondslag lag aan de diagnostiek en behandelbeslissing.
Aan huisartsen adviseerde Slabbers om na te gaan of de privacyverklaring nog up-to-date is.
Veel zal voortschrijdend in de tijd meer concreet worden want het is nieuw en er is nog weinig AI-rechtspraak. De uitgangspunten in bestaande wetten geven aan een jurist de handvatten hoe te redeneren, en dat deed Slabbers op vragen uit de zaal.
Discussie onderwerpen
Met name ‘juridische aansprakelijkheid’ kreeg veel aandacht vanuit de zaal.
Op de KNMG-website staat dat je als arts verantwoordelijk bent en blijft. Door ChatGPT gegenereerde uitkomsten moet je altijd goed controleren.
“Hoe kan je weten of een CE-markering echt is? Het kan ook staan voor ‘China Export’ zonder dat het opvalt”, zo zei iemand in de zaal met deze ervaring. Zelfs de door de leverancier bijgevoegde ‘conformiteitsbeoordeling’ kan nep zijn. De rechter zal dan oordelen afhankelijk van of de ‘verdachte’ redelijkerwijs had kunnen weten dat er sprake is van oplichting, aldus Slabbers.
Artsen in loondienst zijn niet aansprakelijk want dat is in principe de werkgever. De vrijgevestigden zijn zelf aansprakelijk. Een autoverkoper mag aansprakelijkheid beperken of uitsluiten. In de WGBO staat dat door een dokter nooit een beperking of uitsluiting mag worden benoemd. Bij AI wordt onderscheid gemaakt tussen een gebrekkig product (van de producent) en het foutief gebruik maken van het product. Als de arts-gebruiker geen goede input heeft gegeven of iets fout heeft afgelezen, dan is hij wel aansprakelijk.
Hoe verhoudt AI zich tot het pluis-niet-pluis gevoel van de huisarts in de spreekkamer? En kan het ook omgekeerd gaan uitpakken, nl. dat patiënten de dokter aansprakelijk kunnen stellen wanneer deze zich laat leiden door het combineren van eigen kennis en ervarings-deskundigheid, en wél afwijkt van de digitale differentiaaldiagnostische AI-opties?
De arts heeft geheimhoudingsregels in acht te nemen. Niet geanonimiseerde tekst kan naar een ander land gaan (bv Polen), waar wetgeving anders is dan die in ons land. Er is nog geen rechtspraak over, maar het kan wel degelijk tot aansprakelijkheid leiden.
Volgens van Ginniken zijn we tamelijk conservatief als het gaat om innovaties en om AI.
Er is een overmaat aan regels, er is veel traagheid, en veel bureaucratie uit ‘Europa’. Dat geldt ook voor Nederland en voor de medische wereld: ‘zie hoe defensief we waren over vaccineren tijdens corona’. Veel van de aanwezigen maken al gebruik van AI voor hun werk. Een voorbeeld van een bedrijfsarts naast me aan tafel: bij het doen van de aanvraag voor de bepaling van arbeidsongeschiktheid haalt hij de persoonsgegevens van de patiënt weg en voert de dossiergegevens in. Zijn pc kan de UWV aanvraag vervolgens uiterst snel voorleggen inclusief adequate samenvatting van het traject tot dat moment. Dat controleert hij netjes. Het scheelt hem uren werk per patiënt.
Vanuit de zaal werd gewezen op het bestaan van de website AI-Certified: https://aicertified.nl/. Een aardige website om doorheen te lopen voor begripsverheldering. Onder het thema ZORG staat onderaan vermeld dat ‘inzichten en ervaringen gedeeld werden door het ETZ, het Isala, en de Noordwest Ziekenhuisgroep’.
Dossiervorming en interactie met de patiënt
In de zaal zat een ‘programmeur medische teksten’, die bezig is om taal in de spreekkamer direct te laten editten en samenvatten voor opname in het EPD (een ontwikkeling die ook gaande is voor het huisartsendossier). Dat kan in de toekomst wel degelijk het een en ander opleveren.
Jonge artsen, specialisten in opleiding, zijn veel bezig met kopiëren en op de verkeerde velden extra in het EPD te plakken, al dan niet uit onzekerheid.
AI zou voor een sterke verbeterslag kunnen zorgen in patiëntdossiers. Dat is goed voor de overdracht als ook voor wetenschappelijk onderzoek (datakwaliteit). Structuur en opbouw van het gesprek in de diagnostische fase worden dan - in mijn ogen - nog veel belangrijker.
Een specialist merkte hierover op: wanneer het dossier geen pen en vrijwel geen tikwerk meer vraagt, dan wordt de relatie arts-patiënt minder. Daarmee doelde hij op hoe weinig een dokter zich dan nog herinnert over een patiënt en de samenhang tussen de verschillende tracti in de anamnese. Dit terwijl het idee juist is dat tijdwinst te boeken is, hetgeen meer de gelegenheid biedt om de patiënt aan te kijken.
Vraagt AI veel elektriciteit?
De vraag of AI wel duurzaam is vanwege de hoeveelheid energie die ervoor nodig is, werd door van Ginniken gerelativeerd op technische gronden: in de toekomst zullen programma’s veelal in gedistribueerde (regionale) datacenters kunnen draaien. Mij lijkt dat dat waar kan gaan zijn, maar het is zeker niet het volledige antwoord. Het trainen van AI modellen vraagt juist onwijs veel energie.
Onlangs meldden Maarten Schinkel en Marieke Stellinga in een podcast dat ze enorm waren geschrokken hierover. Ze maakten een vergelijking tussen de energie die nodig is om een paar vragen met AI beantwoord te krijgen plus het maken een promofilmpje door een sporter die aan een goede-doelen-fietstocht wil meedoen. Dat is vergelijkbaar met de energie die nodig is voor het draaien van 3 wasmachine.
Een ingenieur in de Brainportregio rekende onlangs voor: de komende 2 jaar is naar schatting een factor 16 meer energie nodig. De chips worden per 2 jaar een factor 2 beter qua prijs/prestatie verhouding dus dan blijft er altijd nog een factor 8 over aan energiebehoefte stijging. Bovendien, het is een kwestie van tijd dat een groot deel van de wereldbevolking beschikt over mobiel internet. En daarmee ook over AI.
Stel ik de vraag aan ChatGPT dan is het antwoord als volgt.
De enorme energiebehoefte als gevolg van AI dwingt bedrijven om alternatieve energieoplossingen te zoeken. Technologiebedrijven investeren in eigen energie-infrastructuur om hun AI-ambities te ondersteunen. Deze trend zal waarschijnlijk verder toenemen naarmate AI-toepassingen zich blijven ontwikkelen. Voorbeelden:
Google heeft een overeenkomst gesloten met een Amerikaans energiebedrijf voor de bouw van zeven kleine modulaire kernreactoren (SMR’s). Elon Musk, bouwt in Mississippi een eigen energiecentrale. Oracle en OpenAI bouwen samen het Stargate-datacenter in Texas, dat in 2026 volledig onafhankelijk van het Amerikaanse elektriciteitsnet zal draaien (700 megawatt). Deze miljarden investeringen die gedaan worden zullen in 2 tot 4 jaar terugverdiend zijn waarna het deze bedrijven meer winst oplevert. Simpel gezegd: grote tech bedrijven verdienen het terug door meer, sneller en goedkoper AI-diensten te leveren dan de concurrentie.
Kortom, afzien van AI-gebruik, als individu of als land, omwille van duurzaamheid zal het verschil niet maken.
OpenAI (ChatGPT) is oorspronkelijk opgericht als een non-profitorganisatie met een start-investering van $1 miljard van Sam Altman en Elon Musk. In 2019 werd OpenAI omgevormd tot een ‘capped-profit’ structuur, waarbij winsten voor investeerders en werknemers zijn beperkt tot 100 keer hun investering, met het doel om kapitaal aan te trekken voor de ontwikkeling van kunstmatige algemene intelligentie. OpenAI verwacht pas vanaf 2029 cashflowpositief te worden, met een geraamde omzet van ongeveer $200 miljard tegen 2030. De strategie is dus gericht op langetermijngroei juist door aanzienlijke investeringen in rekenkracht, datacenters en uiteraard AI-onderzoek.
Gaan we te zijnertijd allemaal moeten betalen voor een abonnement (niet alleen voor premium)? En wat gaan daarvan de consequenties zijn?
Meer bespreking, en meer vragen
Een andere vraag die deze avond bij me opkwam: blijven er verschillen in protocollen tussen verschillende zorgaanbieders? Dat is de afgelopen 2 decennia enorm sterk geüniformeerd en geharmoniseerd, maar implementatie van nieuwe inzichten in de nieuwste versie vraagt tijd.
Jaren geleden was er een tuchtzaak over een trombose na OK waarbij de jonge chirurg zich niet kon beroepen op het protocol van zijn opleidingsziekenhuis. Het protocol van het ziekenhuis waar hij werkzaam was had hij moeten toepassen.
Gaat AI helpen of hinderen bij het uniformeren van alle protocollen in de Nederlandse Ziekenhuizen? In alle Europese ziekenhuizen?
Het kwam mij deze avond voor dat medisch en technisch geschoolde mensen in twee verschillende werelden leven. Er is een verschil in taal- en cultuur, en in denken vanuit verschillende paradigma’s. Artsen denken biomedisch-psychosociaal en willen het goede doen als hulpverlener zonder juridisering.
In de softwarewereld hoor je ingenieurs vaak over “open source software” en waarom dat goed is voor iedereen en de hele wereld. Deze avond kwam ‘open source’ ook even voorbij, maar bleef verder onbesproken. In mijn brein blijft zo’n begrip onbewust contrasteren met de vertrouwelijkheid en het beroepsgeheim van de gesloten spreekkamer. Voor alle duidelijkheid hier: “open source software” heeft niets te maken met vertrouwelijkheid van patiëntgegevens of met het medisch beroepsgeheim. Uiteraard is wel “data-governance” noodzakelijk; hetgeen goed wordt uitgelegd op de site AI-Certified.
In essentie vragen de grote tech bedrijven een blind vertrouwen van ons. Hetgeen gebeurt aan de andere kant van ons beeldscherm valt niet meer te begrijpen. Of patiëntgegevens werkelijk veilig zijn, kun je als arts al lang niet meer controleren. Softwarespecialisten in dienst van grote zorgaanbieder hebben steeds minder zicht op medische modellen en algoritmen. De asymmetrie in vertrouwen geven en vertrouwen krijgen lijkt verder toe te noemen. Waarom was ik ook al weer ooit arts geworden?
Samenvatting en conclusie
- AI en robots in de zorg bieden toenemend zowel welkome hulp aan personeel als ook noodzakelijke vervanging van personeel (Prof. van Ginniken).
- AI blijft slechts een hulpmiddel; de arts moet blijven nadenken, controleren en corrigeren (Mr. Drs. Slabbers).
- Er is nog weinig rechtspraak op dit terrein. Toepassing van wetten zal meer duidelijkheid gaan verschaffen.
- Artsen moeten zich een realistisch beeld vormen van de aansprakelijkheidsrisico’s.
Vooralsnog zijn risico’s met maatregelen - op het niveau van de organisatie - grotendeels uit te sluiten. Volledig uitsluiten is niet mogelijk. - Ontwikkelingen gaan snel; wel of niet ‘meedoen’ lijkt geen keuze meer.
Bij het schrijven hiervan heb ik ChatGPT op enkele punten bevraagd ter verificatie.
Dat is precies wat patiënten gaan doen voordat ze met vragen bij de dokter komen.
Bronnen:
https://www.medischcontact.nl/actueel/laatste-nieuws/artikel/chatgpt-populair-bij-artsen-ik-gebruik-het-om-snel-kennis-op-te-doen
https://www.lhv.nl/wp-content/uploads/2024/12/AI-in-de-huisartsenpraktijk-DD2406_08-11.pdf
https://www.knmg.nl/actueel/dossiers/digitale-zorg-1/artificial-intelligence-ai
https://www.nhg.org/thema/digitale-zorg/kunstmatige-intelligentie-in-de-huisartsenzorg/ai-in-de-huisartsenpraktijk/
https://digizo.nu/zonmw-subsidie-ioc-digitale-en-hybride-zorg-inclusief-samen-beslissen-iza-sectoren/
https://osf.io/tnrjz/files/xzj39
https://aicertified.nl/
| Narrow AI | Narrow AI-systemen zijn getraind voor het uitvoeren van één specifieke taak. Denk aan spraakherkenning of tekstverwerking. |
| General AI | General AI-systemen komen dicht bij de intelligentie van de mens. Deze systemen kunnen leren, redeneren en zichzelf aanpassen aan nieuwe situaties. Je hoeft ze hierbij niet apart te trainen voor een specifieke taak. |
| Super AI | Super AI gaat de menselijke intelligentie voorbij. Het kan taken uitvoeren die als mens onmogelijk zijn, maar kan ook redeneren en ethische beslissingen nemen. |
| Bron: https://aicertified.nl/ |