DU

DU

Blog

Blog

Hou de regie over het algoritme in uw spreekkamer

26 jun 2025

oude vrouw met een dokter
oude vrouw met een dokter
oude vrouw met een dokter

Hoe AI de grenzen tussen arts en patiënt heeft hertekend  

Toen een vierjarige jongen in de VS last kreeg van terugkerende kiespijn en hoofdpijn, gevolgd door problemen met zijn groei, evenwicht en gang, waren artsen verbijsterd. 

Hij bezocht kinderartsen. Hij bezocht neurologen en orthopedisten. In totaal bezocht hij in drie jaar tijd 17 verschillende zorgprofessionals, die hem keer op keer een verkeerde diagnose stelden.

Toen beschreef zijn moeder zijn symptomen aan ChatGPT. De tool stelde iets voor wat geen enkele arts had gedaan: tethered cord syndrome, een aandoening waarbij het weefsel in het ruggenmerg aanhechtingen vormt die de beweging van het ruggenmerg beperken, waardoor het abnormaal uitrekt.

De AI-diagnose bleek juist te zijn. Het toonde aan hoe de traditionele arts-patiëntrelatie aan het veranderen is; tegenwoordig is er steeds vaker een derde partij in de kamer aanwezig. En ook al is dit een N=1, het is een van de vele soortgelijke verhalen van de afgelopen jaren – en dat zou ons op zijn minst aan het denken moeten zetten over de implicaties ervan. 

Artsen zijn echter voorzichtig optimistisch over AI in de gezondheidszorg. Uit een onderzoek van de American Medical Association, dat voor het eerst werd uitgevoerd in 2023 en in november 2024 werd herhaald, bleek dat een groeiende meerderheid de voordelen van AI bij de zorgverlening erkent (68%, tegen 63% in 2023). 

Ook bleek dat het gebruik van AI-tools in de Amerikaanse gezondheidszorg bijna is verdubbeld – van 38% naar 66%. Dit is een ongewoon hoog tempo voor acceptatie van technologie in de gezondheidszorg. De belangrijkste voordelen die door artsen (n=1.183) het meest worden genoemd, zijn onder meer vermindering van stress en burn-out, verbetering van de werkefficiëntie en preventie van cognitieve overbelasting.  

De houding van patiënten is diverser; uit een kleinschalig Amerikaans onderzoek uit 2023 bleek dat een kleine meerderheid van de patiënten weerstand had tegen medische diagnoses op basis van AI, wat aansluit bij bestaande literatuur die suggereert dat patiënten minder vertrouwen hebben in advies dat door een computer wordt gegenereerd. 

Het effect lijkt echter te worden afgezwakt wanneer een zorgprofessional erop wijst dat AI-tools bewezen nauwkeuriger zijn bij bepaalde diagnoses. 

AI als actieve deelnemer in de gezondheidszorg

Eeuwenlang was de autoriteit van artsen gebaseerd op twee pijlers: hun klinische kennis (de epistemische rol) en hun vermogen om de patiënt met empathie en wijsheid in de zorg te begeleiden (de humanistische rol). 

AI, en met name grote taalmodellen, nemen nu veel van de epistemische functies over, met verbluffende vaardigheid. Ze kunnen enorme hoeveelheden literatuur synthetiseren, patronen in complexe gegevens identificeren en differentiële diagnoses genereren op een schaal die geen mens kan evenaren.

Naarmate AI kennisgebaseerde taken automatiseert, wordt de rol van de arts humanistischer. We worden gedreven in de richting van wat ethici Emanuel en Emanuel omschrijven als de interpretatieve en deliberatieve modellen. 

Het interpretatieve model richt zich op de arts in de rol van adviseur die de patiënt helpt zijn waarden te verduidelijken en te verwoorden zodat deze weloverwogen beslissingen kan nemen over de behandeling. Het deliberatieve model daarentegen omvat een actievere discussie tussen arts en patiënt, waarbij de arts ook meeweegt welke waarden het meest waardevol zijn en moeten worden nagestreefd.

Dit dwingt tot een ingrijpende herdefiniëring van de waarde van de clinicus. Zij worden de tolken en bemiddelaars van door AI gegenereerde inzichten, de ethici die datagestuurde aanbevelingen in hun context plaatsen, en de adviseurs die patiënten helpen bij het maken van keuzes die aansluiten bij hun persoonlijke waarden. Het is een fundamentele verschuiving ten opzichte van traditionele zorgmodellen. 

De impact van AI op de kern van de zorg

Deze rolverschuiving is niet abstract; ze geeft actief vorm aan de meest cruciale componenten van de klinische ontmoeting.

Gedeelde besluitvorming (SDM), een hoeksteen van de moderne patiëntgerichte zorg, ondergaat een transformatie. AI-systemen kunnen de gegevens van een individu analyseren om zeer gepersonaliseerde behandelingsopties te genereren, compleet met statistische schattingen van risico's en voordelen. 

Hierdoor kunnen clinici en patiënten een transparantere, op bewijs gebaseerde dialoog aangaan. De AI kan de complexe taak op zich nemen om medisch jargon te vereenvoudigen tot begrijpelijke taal, zodat de patiënt zijn diagnose en opties echt begrijpt.

Tegelijkertijd herstellen tools zoals ambient AI-scribes – die naar gesprekken luisteren en automatisch klinische aantekeningen genereren – de menselijke connectie in de onderzoekskamer. Door de arts te bevrijden van de tirannie van het toetsenbord, maken deze tools directer oogcontact, meer gefocuste gesprekken en een sterkere therapeutische alliantie mogelijk. 

Patiëntenonderzoeken bevestigen het effect: wanneer AI-scribes worden gebruikt, besteden artsen minder tijd aan het kijken naar hun computer en meer tijd aan direct contact met de persoon die voor hen zit.

De gevolgen van onbeheerde integratie: vertrouwen, vooringenomenheid en verantwoordelijkheid

Deze nieuwe driehoeksrelatie – arts, patiënt en algoritme – is niet zonder aanzienlijke risico's. Patiënten koesteren gerechtvaardigde angsten voor verkeerde diagnoses, datalekken en een verlies van menselijk contact. Om hiermee om te gaan, is een nieuw niveau van governance nodig. En voor artsen en klinische besluitvormers roept dit nieuwe vragen op: wat betekent het om arts te zijn? Hoe zal de nieuwe machtsdynamiek het medische beroep vormgeven? [Perspectief van de arts?]

Vertrouwen en transparantie worden van cruciaal belang. Duidelijke, eerlijke communicatie over wanneer, hoe en waarom AI wordt gebruikt, is niet onderhandelbaar. Dit wordt bemoeilijkt door de huidige beperkingen van de technologie. 

Zoals recente studies hebben aangetoond, zijn LLM's weliswaar veelbelovend, maar kunnen ze in complexe gevallen, van de behandeling van darmkanker tot de planning van anesthesie, nog steeds onnauwkeurige informatie geven. Blind vertrouwen is geen optie. Ethische en veiligheidseisen moeten permanent zijn; artsen moeten altijd het voortouw nemen, in plaats van alleen maar 'mens in de molen’ te zijn.  

Algoritmische vooringenomenheid vormt een andere urgente bedreiging. Als AI-modellen worden getraind op datasets die historische ongelijkheden weerspiegelen, zullen ze diezelfde vooringenomenheid leren en in stand houden, wat leidt tot ongelijkheden in de zorg voor gemarginaliseerde bevolkingsgroepen. Dit is geen technische tekortkoming, maar een moreel falen dat het vertrouwen van het publiek ondermijnt.

Ten slotte blijft de verantwoordingsplicht voor door AI beïnvloede beslissingen een complexe ethische en juridische uitdaging. Wanneer er een fout optreedt, is het gevaarlijk onduidelijk wie verantwoordelijk is: de ontwikkelaar, de instelling of de arts. Het opstellen van duidelijke verantwoordingskaders is een essentiële voorwaarde voor een veilige integratie.

Een mandaat voor actie: optimalisering van AI-integratie

Belanghebbenden in de gezondheidszorg moeten nu strategieën verdedigen die menselijke waarden in technologie verankeren.

Voor zorgorganisaties is het van fundamenteel belang om robuuste AI-governancekaders op te zetten. Dit moet een alomvattende "design-to-decommission"-strategie zijn, die beleid omvat voor aanschaf, validatie, voortdurende monitoring en gebruikerstraining. Het is van cruciaal belang dat deze kaders adaptief zijn en kunnen meegroeien met een technologie die zich in een exponentieel tempo ontwikkelt.

Voor AI-ontwikkelaars moeten mensgerichte ontwerpprincipes de prioriteit zijn. Bruikbaarheid, interpreteerbaarheid en ethische waarborgen mogen geen bijzaak zijn, maar moeten centraal staan in het ontwerpproces. Kaders zoals FUTURE-AI – die eisen stellen op het gebied van eerlijkheid, bruikbaarheid, robuustheid en verklaarbaarheid – bieden een sterke basis voor het bouwen van systemen die clinici en patiënten kunnen vertrouwen.

Uiteindelijk moet de centrale vraag bij elke AI-implementatie dezelfde zijn als die welke door het onderzoek wordt gesteld: is dit in het belang van de patiënt? Het doel van automatisering is niet technologie omwille van de technologie, maar het streven naar betere, veiligere en meer compassievolle zorg.

Deze transformatie is niet optioneel; ze is al aan de gang. Als we er niet met vooruitziendheid mee omgaan, riskeren we niet alleen onhoudbare vertragingen in de zorg en een afbrokkelend vertrouwen van het publiek, maar ook een identiteitscrisis voor de medische professie zelf. 

Hou de regie over het algoritme in uw spreekkamer

Hou de regie over het algoritme in uw spreekkamer

Hou de regie over het algoritme in uw spreekkamer

Zorg dat AI uw zorgprofessionals ondersteunt. Boek een consult of neem contact met ons op en ontdek hoe Delphyr veilige en verantwoord inzetbare AI in de praktijk mogelijk maakt.

Zorg dat AI uw zorgprofessionals ondersteunt. Boek een consult of neem contact met ons op en ontdek hoe Delphyr veilige en verantwoord inzetbare AI in de praktijk mogelijk maakt.

Delphyr

Zorgprofessionals helpen hun tijd terug te winnen.

Contacten

Delphyr B.V.

IJsbaanpad 2

1076 CV Amsterdam

Nederland

Volg ons

2026 Delphyr. Alle rechten voorbehouden.

Delphyr

Zorgprofessionals helpen hun tijd terug te winnen.

Contacten

Delphyr B.V.

IJsbaanpad 2

1076 CV Amsterdam

Nederland

Volg ons

2026 Delphyr. Alle rechten voorbehouden.

Delphyr

Zorgprofessionals helpen hun tijd terug te winnen.

Contacten

Delphyr B.V.

IJsbaanpad 2

1076 CV Amsterdam

Nederland

Volg ons

2026 Delphyr. Alle rechten voorbehouden.