AI-chatbots kunnen zorgmedewerkers veel werk uit handen nemen. Maar aan het gebruik kleven ook risico’s. Met deze toolkit ondersteun je jouw collega’s bij het veilig inzetten hiervan.
We passen in de zorg steeds vaker generatieve AI toe, gebaseerd op Large Language Models (LLM’s). Denk bijvoorbeeld aan AI-chatbots als CoPilot, ChatGPT, Gemini en Claude. Die bieden kansen, maar brengen ook risico’s met zich mee.
Verpleegkundige Angelique werkt in een groot verpleeghuis en heeft het vaak erg druk. Niet alleen met de zorg voor patiënten, maar ook met allerhande administratieve taken. Die kosten haar veel tijd en gaan ten koste van haar werkplezier. Om het zichzelf wat makkelijker te maken, gebruikt Angelique sinds kort een AI-chatbot. Ze zet deze tool in om rapportages samen te vatten, en ook om vragen te stellen over bijvoorbeeld hulpmiddelen en medicatie.
Angelique ervaart dagelijks de voordelen van de AI-chatbot: deze is snel, efficiënt en altijd beschikbaar. Dat er ook risico’s kleven aan het gebruik ervan, beseft ze niet echt. Toch zijn die er wel degelijk. Zo zijn de antwoorden die AI-chatbots geven op vragen niet altijd betrouwbaar. Als Angelique zo’n antwoord voor waar aanneemt en ernaar handelt, bestaat de kans dat zij verkeerde informatie of adviezen aan patiënten verstrekt. Zo kunnen er nare situaties ontstaan.
Een andere risico is dat Angelique onbedoeld een datalek creëert als zij in de AI-chatbot gegevens invoert over bijvoorbeeld een patiënt. Zij handelt dan in strijd met wet- en regelgeving.
Als informatieveiligheidsprofessional of digicoach kun je eraan bijdragen dat collega’s (zoals Angelique in dit fictieve voorbeeld) zich van dergelijke risico’s bewust worden en wél veilig gebruikmaken van AI-chatbots.
Hoe kun jij het verschil maken? Vijf tips:
Kortom, maak je collega’s duidelijk: AI-chatbots zijn handig, maar gebruik ze verstandig!
Angelique heeft inmiddels een beter beeld van de taken waarvoor ze een AI-chatbot kan inzetten. Ze gebruikt enkel de chatbot die door de zorgorganisatie is goedgekeurd. Ze heeft bovendien geleerd hoe ze een duidelijke prompt (opdracht aan de AI-chatbot) kan schrijven. Tegenwoordig vraagt ze de chatbot met name om hulp bij het formuleren en inkorten van algemene brieven en mails. Dat scheelt haar veel tijd!
Toolkit
Zelf aan de slag? In de toolkit van Informatieveilig gedrag in de zorg (IVGZ) vind je handvatten voor het veilig en bewust omgaan met AI-chatbots: