AI in de Zorg: van hype naar houvast

27 januari 2026

Interview met Wouter Gude (M&I Partners)

In dit achtste artikel (en laatste artikel) van de levende case study over AI in de zorg kijken we terug en vooruit met Wouter Gude, AI-expert en principal adviseur bij ICT-adviesbureau M&I/Partners. Zijn observatie is: AI in de zorg is al lang geen technologisch vraagstuk meer. De echte uitdaging zit in organiseren, kiezen en gezamenlijk verantwoordelijkheid nemen. 

Dit artikel helpt je om te begrijpen waarom beleid en praktijk vaak langs elkaar heen bewegen en waarom veel initiatieven blijven steken in pilots. Daarnaast krijg je van Wouter mooie tips voor 2026. Welke keuzes moet je aan de voorkant maken? En hoe organiseer je AI zó dat het bijdraagt aan beter werk en betere zorg?

De staat van AI in de zorg

Hoe kijkt Wouter naar ontwikkeling van het gebruik van AI in de zorg? Volgens Wouter gaawe langzaam maar zeker vooruit. De grootste verandering van de afgelopen jaren is dat we dat nu in heel veel zorgorganisaties zijn gaan doen. Wouter vond het mooi om de artikelenreeks bevestigd te zien dat we in de zorg op vele plekken experimenteren en allemaal zoeken naar structurele, efficiënte en effectieve oplossingen. 

De afgelopen jaren was AI aanvankelijk vooral van UMCs en onderzoeksafdelingen. Generatieve AI heeft dat fundamenteel veranderd. Je hebt nu geen uitgebreide datasets en data scientists meer nodig om met AI te experimenteren. Dat maakt AI toegankelijk voor bijna iedereen.”  

Er is een belangrijk verschil tussen AI en andere digitale innovaties: AI komt binnen via de werkvloer of wordt een onderdeel van de software die je toch al gebruikt: 

“AI komt toch wel binnen in je organisatie: via de broekzak van medewerkers of via leveranciers van EPD en andere systemen. Dus je moet aan de slag met AI. Niets doen is geen optie.” 

Daarmee moet je de AI-transformatie wezenlijk anders aanvliegen dan andere digitale innovaties, zoals patiëntportalen, thuismonitoring of roboticaHet is zaak om meteen werk te maken van informatieveiligheid en AI-geletterdheid. Maar los daarvan moet je je niet te stel laten ophaasten. “We proberen te snel door de innovatiefunnel te gaan. Oftewel, we willen te snel van idee naar pilot naar opschaling, zonder voldoende stil te staan bij wat we willen en wat dit organisatorisch vraagt om succesvol te zijn. Hoe doe je dat?

Spanning in zienswijzen is niet verkeerd, zolang je hem productief maakt.”
Wouter Gude

‘Bezint eer ge begint’

Het is belangrijk dat organisaties goed nadenken over wat hun strategische prioriteiten zijn, waar het nu in de praktijk wringt en hoe AI dan uitkomst kan bieden. Dus niet beginnen bij het oordeel over die ene hip ogende of veelbelovende toepassing die toevallig de aandacht van de organisatie wist te krijgen. Begin bij onderzoeken waar je waarde kan toevoegen.  

“Onderzoek eerst met teams wat hun grootste ergernissen zijn, welke taken veel tijd en energie kosten en waar AI mogelijk kan ondersteunen, zonder dat het onveilig of onwerkbaar wordt.” 

Wouter constateert dat we te vaak verkeerde keuzes makenEr zijn diverse toepassingen die nagenoeg geen efficiëntievoordelen opleveren of waarvan de effectiviteit beperkt is. En toch zetten we ons geld erop in. Een voorbeeld is de inzet van AI bij noshows. Het model voorspelt prima, maar de interventies die je vervolgens moet inzetten om de no-show te voorkomen zijn vaak ingewikkeld of ineffectief. Andere toepassingen winnen terecht aan populariteit. Scribes zijn daar een goed voorbeeld van, want spraakgestuurd rapporteren met AI kan enorme tijdswinst opleveren en ook de kwaliteit van het contact tussen zorgverlener en patiënt/cliënt vergroten. Dat zagen we in de artikelen van Bart Timmers en Marja de Waal 

Tegelijkertijd moeten we andere kansrijke toepassingen niet over het hoofd zien. Denk hierbij aan AI benutten voor meer datagedreven werken. Door uniforme rapportages te gebruiken en die geschikt te maken voor AI, ontstaat een stevige basis voor analyse. Zo kan AI gegevens organisatiebreed vergelijken en veel sneller overkoepelende inzichten en analyses opleveren. Dit is een onderbelichte kans van AI.  

Zo word je AI-ready

Organisaties denken te laat na over wat er nodig is om door te pakken voorbíj pilotfase. Opschaling betekent dat je in de projectbegroting geld opneemt voor de inbedding (denk aan aanpassing van werkprocessen, trainingen) en in de structurele begroting geld reserveert voor licentiekosten en het beheer van de AI-toepassing. Voor dat laatste is samenwerking met andere organisaties aan te bevelen. Door kennis en ervaringen te delen en gezamenlijke afspraken te maken over standaarden en best practices, versterk je de implementatie en borging. Dat helpt om sneller van pilot naar praktijk te komen. 

Maar ook interne samenwerking is onmisbaar: je hebt een governance nodig die verschillende perspectieven en expertisen samenbrengt: van zorginhoud en werkproces tot privacy, security, juridische kaders en inkoop. Dit sluit mooi aan bij het kwaliteitssysteem zoals Jacqueline dat zo mooi omschreef in haar artikel: “AI is geen technisch project, maar een gezamenlijke opgave. Het raakt werkplezier, veiligheid en de betekenis van werk in de zorg. Dat kun je alleen samen aanpakken.” 

Figuur 1. De samenstelling van de AI-board, geïnspireerd op de politieke formatie.

Bij het selecteren van de juiste mensen in je AI-board of AI-regiegroep is het belangrijk om een goede balans te vinden tussen progressieve denkers en meer conservatieve krachten. Je hebt mensen nodig die scherp begrenzen en risico’s zien, maar ook mensen die onderzoeken hoe het wél kan. Spanning in zienswijzen is niet verkeerd, zolang je hem productief maakt.  

Wouter heeft ook een advies voor kleinere organisaties: laat anderen het leergeld betalen, sluit aan bij toepassingen die zich al hebben bewezen en richt je eigen energie op verantwoorde inpassing in het werk. Word een slimme volger, maar voorkom dat je een achterloper wordt. 

Eerste hulp bij uitdagingen

Wouter vond de artikelen van de levende case study een feest van herkenning, vooral omdat hij drie herkenbare uitdagingen terugzag waar mensen mee worstelen: 

  • De keuze tussen verbieden en toestaan van AI-chatbots 
  • De focus op medewerkers of management 
  • De spanning tussen beleid en praktijk 

Niet verbieden maar ondersteunen 

Wouter is het eens met Marleen Bronje moet het gebruik van publieke AI-chatbots niet verbieden, maar medewerkers ondersteunen in verantwoord gebruik. De technologie ontwikkelt zich sneller dan zorgorganisaties kunnen bijhouden en dus is het permanent bijhouden en mensen vertellen wat je wel en niet mag gebruiken een hels karwei. In de dagelijkse praktijk is de verleiding bovendien groot om snel even een publieke AI-tool te gebruiken. Je kunt vertellen welke vis mensen moeten eten, of iemand een hengel geven en leren vissen. Ik vind dat je mensen beter een hengel kan geven en kan leren vissen”. Volgens Wouter verkleint dit de kans dat mensen in de haast voor een onveilige tool kiezen. En als ze dat doen, weten ze beter hoe ze die tool dan toch verantwoord kunnen gebruiken.  

Investeren in AI-geletterdheid bij zorgverleners én leidinggevenden 

We moeten tegelijkertijd wel oppassen dat we niet te veel verantwoordelijkheid bij de individuele zorgverlener neerleggen. Organisaties moeten inzetten op AI-geletterdheid van medewerkers maar zeker ook van leidinggevenden zoals teammanagers. Zij zijn vaak nog onvoldoende toegerust om het gesprek over AI te voeren en medewerkers te steunen en sturen richting verantwoord gebruik. Als leidinggevenden de spelregels niet scherp hebben en niet kunnen uitleggen waarom ze bestaan, blijft beleid abstract en zal veilig gedrag bij medewerkers vaak uitblijven. 

Herkenbare situaties centraal stellen in beleid 

In de artikelen zie je de zoektocht naar beleid dat echt werkt. Volgens Wouter zijn beleidsdocumenten geregeld te algemeen, te juridisch of te ver verwijderd van het werkproces. Ondertussen moeten zorgprofessionals onder hoge druk keuzes maken, vaak zonder precies te weten wat wel en niet kan of waarom bepaalde grenzen er zijn. Wouter ziet dat veel organisaties beginnen met het publiceren van “spelregels voor gebruik van AI, ergens in de krochten van het intranet”. Dat is een begin, maar de uitdaging is vervolgens om die eerste spelregels zichtbaar te maken en te onderhouden. Als regels niet begrijpelijk zijn of niet aansluiten op de werkelijkheid, gaan mensen ze eerder toevallig volgen dan dat zij er bewust en gezamenlijk voor kiezen. Daarom vraagt adoptie van beleid dat je herkenbare situaties centraal stelt in de communicatie. 

De belangrijkste take-aways op een rijtje:

  • We moeten bewuster kiezen: onderzoek waar je waarde kunt en wilt toevoegen. Kies niet te snel voor een tool die je los van de organisatiecontext beoordeelt.
  • Doordat generatieve AI via de werkvloer de organisatie binnenkomt, vraagt AI om snel en stevig investeren in AI-geletterdheid. Vergeet daarbij het management niet.
  • Los van de geletterdheid is haastige spoed juist niet goed: neem de tijd voor doordachte keuzes, een kwaliteitssysteem en governance.
  • Stel herkenbare situaties centraal in je beleid en in de communicatie over AI.

AI-chatbot is handig: gebruik het verstandig!

Het programma Informatieveilig gedrag in de zorg wordt uitgevoerd door stichting ECP | Platform voor de Informatiesamenleving in opdracht van het ministerie van VWS.

Logo van
Logo van