AI in de Zorg: zo ga je van onderzoeksfase naar betere zorg in de praktijk

13 januari 2026

Interview met Alexander van Someren (LUMC)

Hoe zorg je dat AI-toepassingen niet blijven hangen in de onderzoeksfase, maar daadwerkelijk gaan bijdragen aan betere zorg in de praktijk? Die vraag staat centraal in dit zevende artikel van onze levende case study over AI in de zorg. We spraken daarvoor met Alexander van Someren, productmanager in het AI-team van het Leids Universitair Medisch Centrum (LUMC) en nauw betrokken bij het Cairelab: het expertisecentrum voor AI-implementatie binnen het ziekenhuis. 

Alexander houdt zich bezig met het vertalen van innovatieve ideeën naar bruikbare, verantwoorde toepassingen. Dat doet hij door leiding te geven aan het ontwikkelteam en actief te sturen op productstrategie: wanneer bouw je zelf, wanneer koop je in? En hoe waarborg je dat een toepassing ook echt van meerwaarde is in de zorgpraktijk?

In dit artikel lees je hoe het LUMC werk maakt van AI en welke afwegingen daarbij telkens terugkeren: van het opstellen van beleid dat risico’s benoemt én handelingsopties biedt, tot het vergroten van bewustwording via gerichte training en communicatie.

Je leest hoe pilots worden opgezet met duidelijke kaders en betrokken gebruikers, en hoe ideeën via participatie, impactanalyse en gedeeld eigenaarschap kunnen uitgroeien tot breed gedragen toepassingen binnen een universitair medisch centrum. Welke stappen zijn nodig? Wie betrek je op welk moment? En waar moet je scherp op blijven? Pak je markeerstift erbij en doe er je voordeel mee.

Een keuze voor restrictief beleid

In 2024 stelde het LUMC een formeel AI-beleid op. De directe aanleiding kwam nadat de HR-afdeling meldde dat medewerkers op grote schaal betaalde abonnementen op ChatGPT declareerden via werkbudgetten. Dat riep vragen op over dataveiligheid, kostenstructuren en verantwoorde inzet van AI.

Het ziekenhuis wilde grip krijgen op het gebruik van AI-chatbots en koos daarom voor een restrictieve koers. Een groep experts op het gebied van informatiebeveiliging, privacy, ethiek en AI-implementatie stelde een beleidsstuk op, waarbij het Cairelab zelf de redactie deed. Dit beleid belicht kansen, maar neemt vooral risico’s serieus. De grootste risico’s volgens het LUMC: het risico op datalekken en het risico op onjuist gebruik door bijvoorbeeld blind te vertrouwen in AI-output. 

Gebruiksbeleid: dit mag wel en niet
Het AI-team ontwikkelde een gebruikersbeleid om het beleid praktisch toepasbaar te maken. Het gebruikersbeleid is handelingsgericht en benoemt expliciet welke toepassingen zijn toegestaan, zoals een veilige versie van Microsoft Copilot, en welke niet. Daarnaast is er het voornemen om publieke AI-tools in de toekomst actief te blokkeren. 

De aanpak is helder: medewerkers ondersteunen in veilig gebruik, en het gemakkelijk(er) maken om het juiste te doen, voordat wordt ingezet op verbieden. “Als we ChatGPT en alle alternatieven nu ontoegankelijk zouden maken, verwachten we dat mensen hun privételefoon gaan gebruiken. Dan zijn we nog verder van huis. De werkdruk is hoog; mensen staan niet vanzelf stil bij veilig gebruik van AI. Wij moeten hen helpen door het makkelijk en duidelijk te maken,” aldus Alexander. Daarom kiest het LUMC voor een veilige AI-tool én investeert het in bewustwording. “Pas als dat goed staat, kan het ontoegankelijk maken van alternatieven goed werken.” 

Take-aways:

  • Vind in je beleid de juiste balans tussen risico’s en handelingsopties. Mensen hebben behoefte aan duidelijkheid over wat niet verstandig is én willen praktische handvatten om wel met AI aan de slag te gaan. 
  • Maak gebruikersbeleid: kort, duidelijk en gericht op herkenbare situaties in de praktijk. 
  • Bied eerst een veilig alternatief en creëer bewustzijn bij medewerkers, voordat onveilige tools worden verboden. 

AI-chatbot is handig: gebruik het verstandig!

Van beleid naar bewustwording en AI-geletterdheid

Na het opstellen van het AI-beleid vergrootte het LUMC actief de bewustwording onder medewerkers. Want beleid op papier is één ding, maar veilig en verantwoord AI-gebruik moet in de praktijk gebeuren. Bewustwording start bij begrip van risico’s, grenzen en verantwoord gebruik. 

De eerste stap van het LUMC was het ontwikkelen van een handzame informatiekaart die via intranet en verschillende bewustwordingsevenementen werd verspreid onder medewerkers. De informatiekaart legt in begrijpelijke taal uit wat met AI wel en niet mag, welke risico’s het gebruik van publieke AI-tools met zich meebrengt, en welke veilige alternatieven beschikbaar zijn.  

Het LUMC startte vervolgens een breder programma om AI-geletterdheid te verbeteren. Binnen dit traject ontwikkelde het team doelgroepgerichte leerlijnen. Voor beleidsadviseurs en bestuurders ligt de nadruk op strategisch kaderstellen; voor juristen en inkopers op ethiek en compliance; voor IT’ers op dataveiligheid en integratie; en voor zorgverleners op veilig gebruik in de praktijk. Ook de vorm is anders voor elke doelgroep: fysiek, digitaal, of als onderdeel van onboarding in een project. 

Zorgverleners volgen een training zodra zij daadwerkelijk met AI gaan werken, zoals bij een pilot met de veilige chatbot, waar je later in dit artikel meer over leest. De training is daarbij voorwaardelijk: pas na het volgen van de instructie krijg je toegang tot de tool. Daarbij wordt niet alleen uitleg gegeven over de tool, maar ook over het bredere kader waarin deze wordt gebruikt. 

Om bewustwording te stimuleren, werkt het LUMC met herkenbare scenario’s. Eén daarvan is: “Stel dat je op het achtuurjournaal moet uitleggen hoe je deze AI-toepassing gebruikt, kun je dat goed verantwoorden?” Zulke vragen helpen medewerkers nadenken over hun eigen handelen én dat van collega’s.  

Take-aways:

  • Werk aan AI-geletterdheid met leerlijnen op maat voor de doelgroep, afgestemd op rol, verantwoordelijkheid en risico. 
  • Combineer heldere regels met toegankelijke communicatie, zoals een informatiekaart. 
  • Zorg dat medewerkers pas toegang krijgen tot AI-tools na een korte onboarding. 
  • Werk met prikkelende vragen die moreel bewustzijn bij medewerkers stimuleren. 

“We willen dat medewerkers snappen waarom bepaalde keuzes nodig zijn. Alleen dan kun je als organisatie sturen op veilig én werkbaar AI-gebruik.”
Alexander van Someren

Een veilig alternatief van ChatGPT

Naast het opstellen van beleid en gebruikersrichtlijnen koos het LUMC voor een veilige vorm van generatieve AI. Het LUMC testte in een gecontroleerde pilot een zorgspecifieke chatbot. Hiermee ontstond inzicht in hoe generatieve AI op een verantwoorde manier toegepast kan worden binnen het zorgproces. 

Voor de pilot werd samengewerkt met een Nederlandse scale-up die zich toelegt op AI voor de zorg. Hun technologie is ontwikkeld met het oog op ziekenhuissystemen en kan koppelen met het EPD. Dat maakt het mogelijk om generatieve AI niet alleen in te zetten voor administratieve vragen, maar ook voor het opvragen van relevante patiëntgegevens of het invullen van formulieren. 

Een stuurgroep en AI-champions

Het LUMC richtte een stuurgroep in om de pilot te begeleiden. Daarnaast vormde het LUMC een groep AI-champions: enthousiaste medewerkers die actief feedback geven. Hun signalen helpen de tool verder aan te scherpen én vormen input voor bredere adoptie. “De pilot helpt ons niet alleen om risico’s te beheersen, maar ook om de echte behoeften in kaart te brengen.” 

De lessen uit deze pilot vormen de opmaat naar verdere implementatie. Daarbij blijft het uitgangspunt: alleen als het veilig, bruikbaar én gedragen is, komt AI daadwerkelijk van de grond. 

Take-aways:

  • Bied een veilig alternatief voor publieke AI-tools.  
  • Koppel dit alternatief aan het EPD om medische en administratieve processen écht te ondersteunen. 
  • Betrek gebruikers die ervaring en enthousiasme meebrengen: zij helpen mee om de toepassing beter aan te laten sluiten bij de praktijk. 
  • Gebruik pilots om te verkennen wat werkt, en om te bepalen of verschillende gebruikers verschillende oplossingen nodig hebben. 

Enthousiasme houden en implementatieproces optimaliseren

Ook met beleid en pilots blijft er de strategische kernvraag: hoe zorg je dat innovaties, zoals AI-toepassingen, niet verzanden in losse experimenten, maar daadwerkelijk blijven en een onderdeel worden van ‘hoe we hier werken’? 

Net als elders in de zorg startten AI-projecten in het LUMC met veel enthousiasme om vervolgens toch te stranden. “Er kwamen prachtige ideeën uit de organisatie, maar ze bleven hangen in onderzoek of strandden onderweg,” blikt Alexander terug. Dat was precies de uitdaging waar het Cairelab zich vijf jaar geleden op stortte. In de beginjaren werd gewerkt volgens een klassieke bottom-up aanpak: iedereen met een goed idee kon starten. Dat zorgde voor beweging, maar ook voor versnippering. Structurele implementatie ontbrak, waardoor veel projecten de eindstreep niet haalden en niet uitgroeiden tot daadwerkelijke toepassing in het zorgproces. 

Daarom stapte het Cairelab over op een meer gestructureerde aanpak, gebaseerd op een handreiking van VWS. Het Cairelab toetst projectideeën vooraf aan een gezamenlijk proces van vier onderdelen: 

  1. Participatie: vanaf het begin wordt gewerkt met een afgebakende gebruikersgroep. Het Cairelab start binnen de doelgroep met gemotiveerde gebruikers, om zo goed zicht te krijgen op wat nodig is voor een werkbare en passende oplossing. Voor verpleegkundige innovaties worden bijvoorbeeld NIO’s (Nursing Information Officers) betrokken: zorgprofessionals die naast hun dagelijkse werk ruimte hebben voor innovatie en fungeren als brug tussen de praktijk en het Cairelab. Afhankelijk van de toepassing kiest het Cairelab de juiste betrokkenen, zoals artsen of administratief medewerkers. 
  2. Proces- en impactanalyse: het team brengt met een analyse van het huidige proces knelpunten in kaart. Op basis daarvan wordt een inschatting gemaakt van de potentiële impact. 
  3. Stakeholderanalyse en eigenaarschap: inzicht in interne verantwoordelijkheden en in wie betrokken moet zijn om de implementatie te laten slagen.  
  4. Inhoudelijke toetsing: bij elk AI-project wordt een eerste afweging gemaakt aan de hand van drie vragen: Wat zijn de risico’s? Het LUMC gebruikt een PRI (prospectieve risico-inventarisatie) voor het in kaart brengen van risico’s. Welke kansen biedt het project? Wat zijn de kosten en baten? Waar mogelijk wordt een businesscase opgesteld, waarbij onderscheid wordt gemaakt tussen een investerings- en exploitatiebegroting. 

Deze aanpak leidt inmiddels tot meer projecten in de implementatiefase. 

Take-aways: 

  • Enthousiasme en losse pilots leiden niet vanzelf tot duurzame implementatie. 
  • Structuur en gezamenlijke kaders zijn nodig om innovatie onderdeel te maken van het dagelijks werk. 
  • Een combinatie van gerichte participatie, proces- en impactanalyse, helder eigenaarschap, inhoudelijke toetsing en nauwe samenwerking met zorgprofessionals vergroot de kans op succesvolle implementatie. 
  • Evalueer regelmatig, samen met eindgebruikers. Stuur bij waar nodig. 

Het programma Informatieveilig gedrag in de zorg wordt uitgevoerd door stichting ECP | Platform voor de Informatiesamenleving in opdracht van het ministerie van VWS.

Logo van
Logo van