Generatieve AI is een game changer en vraagt om een ethisch kader, vinden zowel Hafkamp als Van Gennip. AI wordt al decennia ontwikkeld in bijvoorbeeld beeldherkenning (voor een snellere en nauwkeurige diagnose) en in de logistiek voor analyse van grote hoeveelheden data. Deze traditionele AI-toepassingen gaan vooral over machine learning en patroonherkenning en kennen een zorgvuldig proces van validatie en implementatie. Met generatieve AI en de opkomst van Large Language Models (zoals ChatGPT) ontstaat een nieuwe technologische ontwikkeling. Deze technologie wordt veel laagdrempeliger en breder toegepast en genereert nieuwe data. Dat gaat een stuk verder dan patroonherkenning.
Generatieve AI wordt nu al ingezet voor transcriptie van consulten. Dat bespaart zorgmedewerkers heel veel typewerk en creëert meer tijd voor patiëntenzorg. De potentiële toepassingen bieden steeds meer mogelijkheden, van leerplatformen die zorgprofessionals sneller toegang geven via medische kennis tot precisiegeneeskunde op de langere termijn (5-10 jaar).
Van Gennip en Hafkamp vinden allebei dat AI, ook generatieve AI, zorgvuldige implementatie vraagt om misbruik te voorkómen. Hafkamp hierover: “Bij AI speelt meer dan alleen de vraag: ‘hoe goed is de patroonherkenning?’ Er moet ook gekeken worden naar gevolgen voor bijvoorbeeld het verlies van menselijke interactie. Neem bijvoorbeeld de chatbots bij de huisartsenpraktijken. Voorheen was er een assistent en nu een computer waar je tegenaan praat.”
Hafkamp denkt dat veel mensen AI als black box zien en zich onvoldoende afvragen of adviezen kloppen. Bij verkeerde training en gebruik of onvoldoende data kan AI leiden tot bias en discriminatie. Maar ook aansprakelijkheid is een issue. Wie is verantwoordelijk wanneer AI verkeerde of schadelijke adviezen geeft? De bouwer van de AI-toepassing, de leverancier of de dokter als AI-gebruiker? Menselijke interactie blijft volgens Hafkamp nodig.