AI-chatbots: dit kan je ermee in de zorg!

AI-chatbots kunnen zorgmedewerkers veel werk uit handen nemen. Maar aan het gebruik kleven ook risico’s. Met deze toolkit ondersteun je jouw collega’s bij het veilig inzetten hiervan.

We passen in de zorg steeds vaker generatieve AI toe, gebaseerd op Large Language Models (LLM’s). Denk bijvoorbeeld aan AI-chatbots als CoPilot, ChatGPT, Gemini en Claude. Die bieden kansen, maar brengen ook risico’s met zich mee.

Verpleegkundige Angelique werkt in een groot verpleeghuis en heeft het vaak erg druk. Niet alleen met de zorg voor patiënten, maar ook met allerhande administratieve taken. Die kosten haar veel tijd en gaan ten koste van haar werkplezier. Om het zichzelf wat makkelijker te maken, gebruikt Angelique sinds kort een AI-chatbot. Ze zet deze tool in om rapportages samen te vatten, en ook om vragen te stellen over bijvoorbeeld hulpmiddelen en medicatie.

Pluspunten en risico’s

Angelique ervaart dagelijks de voordelen van de AI-chatbot: deze is snel, efficiënt en altijd beschikbaar. Dat er ook risico’s kleven aan het gebruik ervan, beseft ze niet echt. Toch zijn die er wel degelijk. Zo zijn de antwoorden die AI-chatbots geven op vragen niet altijd betrouwbaar. Als Angelique zo’n antwoord voor waar aanneemt en ernaar handelt, bestaat de kans dat zij verkeerde informatie of adviezen aan patiënten verstrekt. Zo kunnen er nare situaties ontstaan.

Een andere risico is dat Angelique onbedoeld een datalek creëert als zij in de AI-chatbot gegevens invoert over bijvoorbeeld een patiënt. Zij handelt dan in strijd met wet- en regelgeving.

5 tips voor het veilig gebruik van AI-chatbots

Als informatieveiligheidsprofessional of digicoach kun je eraan bijdragen dat collega’s (zoals Angelique in dit fictieve voorbeeld) zich van dergelijke risico’s bewust worden en wél veilig gebruikmaken van AI-chatbots.

Hoe kun jij het verschil maken? Vijf tips:

  1. Bespreek hoe de organisatie AI-chatbots wil inzetten
    Heeft de zorgorganisatie al beleid voor het omgaan met AI? Of moet dit nog gemaakt worden? Overweeg om binnen de organisatie een multidisciplinaire AI-groep op te richten, waarin je met elkaar bespreekt welke AI-chatbots mogelijk geschikt zijn. Of misschien is het beter voor de zorgorganisatie om een eigen afgeschermde AI-omgeving ontwikkelen?
  2. Verdiep je in de wet- en regelgeving
    Hoe je AI-chatbots inzet, kan onder meer in strijd zijn met de AVG. Deze stelt onder andere dat een organisatie alleen persoonsgegevens mag delen met derden na toestemming van die personen. Patiëntgegevens mogen dus niet worden ingevoerd in chatbots als die persoonsgegevens vervolgens worden gedeeld met de chatbotleverancier. Het gebruik van AI-chatbots kan bovendien botsen met andere wetten en regels, zoals de AI Act, de Wet op de geneeskundige behandelingsovereenkomst (WGBO) en de Medical Device Regulation (MDR). Het is belangrijk dat je de wet- en regelgeving kent. Zorg dat jouw organisatie hieraan voldoet. Of bespreek dit met de verantwoordelijken in jouw organisatie.
  3. Creëer bewustwording bij collega’s
    Maak collega’s bewust van gedragsrisico’s bij het gebruik van AI-chatbots. Leg het beleid en de gedragsregels van jouw organisatie uit. Sluit hiervoor bijvoorbeeld aan bij reguliere werkoverleggen of begin een gesprek bij de koffieautomaat over AI-toepassingen. Trek ook op met de communicatieafdeling van de zorgorganisatie: bespreek welke ideeën deze heeft voor het vergroten van bewustwording over gedragsrisico’s bij medewerkers. En misschien ook voor scholing rondom dit onderwerp.
  4. Informeer collega’s over maatregelen om risico’s te beperken
    Vertel collega’s niet alleen over de risico’s van AI-chatbots, maar ook over de maatregelen om risico’s te verminderen.
    Laat weten dat zij geen persoons-, medische of bedrijfsgevoelige gegevens mogen invoeren in een AI-chatbot die niet door de organisatie is goedgekeurd. Maak duidelijk waarom dit geen goed idee is: veel chatbots slaan gegevens op buiten Nederland, waar andere privacyregels kunnen gelden.
    Licht ook toe hoe een AI-chatbot aan zijn antwoorden komt. Dit hangt af van de gegevens waarmee hij is getraind en hoeveel vrijheid hij volgens zijn instellingen krijgt om (onzin)bronnen te gebruiken. Benadruk bij medewerkers dat het belangrijk is om altijd zelf te blijven nadenken en te checken of een antwoord van een AI-chatbot klopt.
  5. Geef aan waarbij ze hun ‘digitale assistent’ wél kunnen gebruiken
    Bijvoorbeeld bij het: samenvatten van niet-gevoelige documenten, structureren van ideeën, omzetten van ingewikkelde teksten naar B1-niveau, vinden of maken van afbeeldingen, formuleren van SMART-doelstellingen of opstellen van algemene teksten.

Kortom, maak je collega’s duidelijk: AI-chatbots zijn handig, maar gebruik ze verstandig!

Angelique heeft inmiddels een beter beeld van de taken waarvoor ze een AI-chatbot kan inzetten. Ze gebruikt enkel de chatbot die door de zorgorganisatie is goedgekeurd. Ze heeft bovendien geleerd hoe ze een duidelijke prompt (opdracht aan de AI-chatbot) kan schrijven. Tegenwoordig vraagt ze de chatbot met name om hulp bij het formuleren en inkorten van algemene brieven en mails. Dat scheelt haar veel tijd!

Toolkit
Zelf aan de slag? In de toolkit van Informatieveilig gedrag in de zorg (IVGZ) vind je handvatten voor het veilig en bewust omgaan met AI-chatbots:

  • Een video met herkenbare zorgsituaties laat zien wat wél en níét veilig is.
  • Een infographic voor IVP’ers biedt diepgaande inzichten en volop praktische tips om AI-chatbots veilig te integreren in de organisatie.
  • Een infographic voor medewerkers geeft eenvoudige, duidelijke richtlijnen om slim en verantwoord met AI-chatbots te werken.
  • Levende casestudy’s laten zien hoe zorgcollega’s generatieve AI inzetten.
  • Leestips verwijzen naar (achtergrond)artikelen over AI in de zorg.

AI-chatbot is handig: gebruik het verstandig!

Het programma Informatieveilig gedrag in de zorg wordt uitgevoerd door stichting ECP | Platform voor de Informatiesamenleving in opdracht van het ministerie van VWS.

Logo van
Logo van