AI in de zorg: als ondersteunen ongemerkt verandert in sturen
Vijf vraagstukken over patiëntveiligheid en professionele verantwoordelijkheid
In mijn werk als risk consultant zie ik hoe snel AI in de zorgsector onderdeel wordt van het werk. Van triage en verslaglegging tot risico-inschatting, capaciteitsplanning en patiëntcommunicatie. Dat is begrijpelijk: de druk ligt hoog, personele schaarste is voelbaar en elk hulpmiddel dat kan bijdragen aan tijdswinst of overzicht is welkom. AI biedt daarbij reële voordelen, zoals het herkennen van patronen die kunnen duiden op ziektebeelden, complicaties of verslechtering, of ondersteuning bij prioritering en dossiervorming. Dat kan ruimte creëren voor directe patiëntenzorg.
Tegelijkertijd zie ik dat de inrichting van governance, toezicht en risciobeheersing vaak achterblijft bij het tempo van implementatie. Niet omdat men de risico’s ontkent, maar omdat de aandacht in de beginfase vooral uitgaat naar functionaliteit en efficiëntie. Juist daardoor blijft een cruciale vraag vaak onderbelicht: wanneer ondersteunt AI nog, en wanneer begint het feitelijk het handelen van professionals te sturen? En welke consequenties heeft dat voor patiëntveiligheid en verantwoordelijkheid?
Vraagstukken die je kunt overwegen
1. In de zorg weegt AI zwaarder dan je denkt
Besluitvorming in de zorg gebeurt vaak onder tijdsdruk, met onvolledige informatie en potentieel grote gevolgen. Precies daarom zijn AI-systemen die informatie structureren, samenvatten of prioriteren zo aantrekkelijk. Maar ook wanneer AI formeel slechts ondersteunend is, beïnvloedt het in de praktijk wél wat je als zorgprofessional als eerste te zien krijgt, welke opties logisch lijken en welke signalen minder aandacht krijgen. Die beïnvloeding voelt vanzelfsprekend, juist omdat de onderliggende aannames en keuzes grotendeels buiten beeld blijven. In de praktijk zie ik dat effect vaak groter worden dan vooraf gedacht.
Daarmee vervaagt de grens tussen ondersteunen en sturen. De formele eindverantwoordelijkheid blijft bij de zorgprofessional en de instelling, maar het besliskader wordt steeds vaker mede gevormd door AI-output. Dit spanningsveld is in veel organisaties nog onvoldoende expliciet gemaakt, terwijl juist daar de vragen over patiëntveiligheid, kwaliteit en aansprakelijkheid beginnen.
2. Hallucinaties: AI klinkt overtuigend, maar kan óók fouten maken
Generatieve AI is vaak geoptimaliseerd op een prettige gebruikerservaring: empathisch, behulpzaam, bevestigend. Dat maakt ze toegankelijk, maar is iets anders dan optimaliseren op medische juistheid of therapeutische wenselijkheid.
Voorbeeld: een eetstoornis-chatbot die ‘meepraat’ in plaats van begrenst
In een casus werd een AI‑chatbot ingezet als vervanging van een hulplijn voor mensen met een eetstoornis. Het systeem was primair ontworpen om steun en empathie te bieden, niet als behandelondersteuning. Juist daarin schuilde het risico. De chatbot gaf afvaltips, bevestigde de wens om verder af te vallen en sloot aan bij schadelijke denkpatronen. Bij gebruikers in een kwetsbare fase leidde deze bevestigende benadering niet tot bescherming, maar tot versterking van gedrag en overtuigingen die zorgprofessionals normaal gesproken juist begrenzen.
Voorbeeld: chatbot die terugval in verslaving normaliseert
In academisch onderzoek naar therapie-achtige AI-chatbots werd een fictieve gebruiker beschreven als iemand die net hersteld was van een methamfetamineverslaving, uitgeput was en bang was zijn baan te verliezen. De chatbot reageerde begripvol en adviseerde uiteindelijk om ‘een kleine hoeveelheid meth’ te gebruiken om alert te blijven op het werk.
Deze voorbeelden illustreren geen incident op zich, maar een breder mechanisme: in kwetsbare zorgcontexten kan een systeem dat vooral is ingericht op bevestiging en gebruikerservaring ongemerkt meegaan in schadelijke overtuigingen en noodzakelijke tegenspraak vermijden. Daarmee verschuift de focus van zorginhoudelijke juistheid naar wat voor de gebruiker prettig of geruststellend aanvoelt. Verkeerd advies wordt zo een reëel zorgrisico. Niet door één zichtbaar fout antwoord, maar door een patroon waarin ervaren steun zwaarder weegt dan professionele normen.
3. Bias: ‘objectief’ kan in de praktijk ongelijk uitpakken
Naast hallucinaties vormt bias [vooringenomenheid, red.] een structureel risico bij AI‑gebruik in de zorg. AI-systemen leren van historische zorgdata waarin bestaande verschillen in diagnose, behandeling en toegang tot zorg besloten liggen. Zonder expliciete correctie kunnen systemen deze patronen reproduceren of versterken.
Neem spraak- en stemgebaseerde AI, bijvoorbeeld voor triage, analyse of verslaglegging. Onderzoek laat zien dat zulke systemen aantoonbaar verschillend kunnen presteren, afhankelijk van stemkenmerken (zoals leeftijd, geslacht of accent). In de praktijk kan dat betekenen dat klachten bij bepaalde patiëntgroepen minder goed worden herkend of lager worden ingeschat.
Het lastige is dat dit op individueel niveau nauwelijks zichtbaar is. Elke beslissing lijkt op zichzelf verdedigbaar. Pas op groepsniveau wordt duidelijk dat vergelijkbare patiënten niet dezelfde zorg ontvangen. Bias manifesteert zich dan niet als een duidelijke ‘fout’, maar als een structureel verschil dat moeilijk te corrigeren is zolang het systeem als objectief wordt ervaren.
4. Verantwoordelijkheid blijft (gewoon) bij mens en organisatie liggen
Het gebruik van AI verandert niets aan professionele en juridische verantwoordelijkheid. Zorginstellingen én zorgprofessionals blijven aanspreekbaar voor beslissingen die met behulp van AI tot stand komen. Organisaties kunnen zich dus niet verschuilen achter het argument dat ‘AI dit nu eenmaal zo heeft gegenereerd’. In governance-discussies benadruk ik dit vaak, omdat dit precies is waar verwachtingen en werkelijkheid uit elkaar kunnen lopen.
Zodra AI-output onderdeel wordt van het zorgproces, beïnvloedt deze:
- klinische keuzes
- handelen van zorgprofessionals
- en welke informatie wel en niet wordt meegewogen
Het risico van verkeerd advies blijft dus rusten bij de organisatie en de professional. En omdat AI-output vaak overtuigend en consistent is, wordt verantwoording in de praktijk niet eenvoudiger, maar juist complexer.

5. AI-fouten zijn anders: consistent, overtuigend en schaalbaar
AI‑toepassingen kunnen in de zorg aantoonbare voordelen bieden. Systemen kunnen ziektebeelden eerder signaleren, patronen zien die voor mensen lastig waarneembaar zijn en in specifieke taken juist mínder fouten maken dan de menselijke zorgverlener. Op het gebied van snelheid, consistentie en schaal kan dat de kwaliteit van zorg verbeteren.
Het onderscheidende risico zit niet in het bestaan van fouten, maar in hoe ze zich kunnen herhalen. Waar menselijke fouten vaak individueel en zichtbaar zijn, kunnen AI‑gerelateerde fouten langdurig en onopgemerkt structureel doorwerken. Eén verkeerde aanname kan zich op schaal herhalen voordat iemand deze herkent als probleem.
Daarom vraagt verantwoorde innovatie om méér dan toetsing op nauwkeurigheid in individuele gevallen. Het vereist ook aandacht voor systematische afwijkingen, monitoring in de praktijk en het expliciet maken van restrisico’s: wat gebeurt er als het misgaat, waar landt dat risico, en past dat binnen de risicobereidheid van de organisatie?
Verantwoorde zorg vraagt om bewuste keuzes over AI
AI is geen bedreiging voor de zorg, maar ook geen neutrale assistent. Ik zie het als een versneller: het kan helpen om eerder te signaleren, consistenter te handelen en processen te verbeteren. Tegelijk verandert het hoe beslissingen tot stand komen, hoe fouten doorwerken en waar verantwoordelijkheid terechtkomt.
Het grootste risico is wat mij betreft niet dat AI soms ongelijk heeft, maar dat het overtuigend, consistent en op schaal ongelijk kan hebben zonder dat dit direct wordt herkend. Juist in de zorg, waar advies invloed heeft op gedrag en gezondheid, is bewuste positionering en risicobeoordeling essentieel.
Verantwoorde innovatie betekent daarom niet dat AI-gebruik moet worden afgeremd, maar dat zorgorganisaties expliciet moeten maken waar AI feitelijk stuurt, welke risico’s daarbij horen en wat er gebeurt als het misgaat. Pas dan ontstaat ruimte om maatregelen te treffen, restrisico’s bewust te accepteren en AI in te zetten op een manier die daadwerkelijk bijdraagt aan betere zorg.
Meer weten over AI en patiëntveiligheid?
Lees in ons impactpaper wat de AI Act betekent voor de zorg en welke kansen en risico’s er zijn op de aansprakelijkheid.

Auteur: Sanne Bonnerman (Aon)
Sanne Bonnerman is Risk Management Consultant bij Aon.