Naar hoofdinhoud Naar footer

Verantwoord inzetten op AI in de zorg

Gepubliceerd op: 01-11-2025

Digitale innovaties en kunstmatige intelligentie (AI) bieden veel kansen voor de zorg. Maar hoe zorgen we dat deze technologieën verantwoord worden ingezet? Dat gaat verder dan privacy alleen. Het draait om waarden zoals autonomie, transparantie en rechtvaardigheid. Toch worden deze vaak vergeten in het innovatieproces.

Waarom verantwoord innoveren belangrijk is

Bij nieuwe technologie ligt de focus vaak op functionaliteit en gebruiksgemak voor zorgverleners. Maar wat betekent dat voor cliënten? Kunnen zij zelf kiezen of een systeem aan of uit staat? Begrijpen zij wat er met hun gegevens gebeurt? Dit soort vragen raken aan ethiek en sociale impact. Ze zijn niet altijd eenvoudig, maar wel cruciaal.

Internationaal bestaan er veel richtlijnen over AI in de zorg. Die noemen waarden zoals privacy, autonomie, gelijkheid en verantwoordelijkheid. Maar ze geven weinig praktische handvatten. Daardoor blijft het lastig om deze waarden echt mee te nemen in ontwerp en implementatie.

Risico’s onderbelicht

Samen ontwerpen met gebruikers (co-design) is belangrijk, maar leidt niet vanzelfsprekend tot verantwoorde uitkomsten. Vaak ligt de nadruk op kansen, terwijl risico’s onderbelicht blijven. 

Denk aan:

  • Zorgverleners die te veel vertrouwen op AI en hun kritische blik verliezen.
  • Werkplezier dat afneemt omdat AI te veel bepaalt.
  • Bepaalde uitingen van het ouder worden, zoals een langzamer looptempo, kunnen door AI soms ten onrechte worden gezien als probleem (bijvoorbeeld een risico op vallen) dat moet worden opgelost.
  • Informatie-overload: zorgverleners krijgen steeds meer data en AI-inzichten om mee te nemen in hun besluitvorming.

Verantwoord innoveren betekent dat je ook nadenkt over mogelijke nadelige neveneffecten en hoe je die voorkomt.

Wat helpt in de praktijk?

Onderzoek laat zien dat zorgprofessionals graag meedenken over AI. Zij kunnen de kansen goed vanuit een praktijkperspectief duiden, en met de juiste ondersteuning kunnen zij ook goed meedenken over de risico’s en hoe je hiermee omgaat bij het ontwerp en de implementatie van AI-toepassingen. 

Zo komt bijvoorbeeld naar voren dat veel zorgverleners het prettig vinden als AI hen proactief wijst op risicofactoren en zorgbehoeften. Maar liefst niet zo proactief dat ze als zorgverlener niet meer worden uitgedaagd om zelf na te denken.

Daarnaast hebben niet alle zorgverleners evenveel kennis over en ervaring met technologie. Er is daarom behoefte aan bruggenbouwers: zorgprofessionals die technologie en praktijk verbinden door met ontwikkelaars mee te denken over wat echt nodig is en collega’s begeleiden bij verantwoord gebruik.

Opschalen: niet meer van hetzelfde

Beleidsmakers leggen momenteel veel nadruk op het opschalen van digitale innovaties. Maar opschalen is niet eenvoudig. Elke organisatie heeft eigen routines, processen en een cultuur. Verantwoord opschalen betekent leren van eerdere ervaringen en maatwerk leveren. Ouderen hebben bijvoorbeeld verschillende wensen: de een wil maximale veiligheid, de ander juist minder ingrijpende oplossingen.

Standaardisatie én flexibiliteit

Standaardisatie kan een belangrijke rol spelen bij de totstandkoming en opschaling van verantwoorde AI-toepassingen in de zorg. Standaardisatie klinkt misschien tegengesteld aan maatwerk, maar dat is niet zo. Het gaat om gezamenlijke afspraken: wanneer zijn de onderdelen waaruit een AI-innovatie is opgebouwd technisch, ethisch en sociaal betrouwbaar? 

Hierbij gaat het niet alleen om de technologische onderdelen van AI, zoals trainingsdata, data-verwerkende algoritmen en uitleg die gepaard gaan met AI-output. Ook niet-technologische onderdelen van AI-innovatie, zoals werkprotocollen en training, zijn belangrijk. Denk bijvoorbeeld aan het delen van implementatie-ervaringen en het ontwikkelen van programma’s die zorgverleners verantwoord leren werken met AI. Standaarden helpen bij uitwisseling en hergebruik van goede oplossingen. 

Het is belangrijk dat mensen uit de zorg zelf meer het initiatief nemen bij het maken van afspraken over AI. Daarbij moeten verschillende groepen meedoen, zoals zorgverleners, cliënten, ontwikkelaars en beleidsmakers. Dat is niet vanzelfsprekend, want een klein aantal grote technologiebedrijven heeft nu veel invloed op AI-ontwikkeling en –standaardisatie. 

Zorgorganisaties moeten uiteindelijk zelf kunnen kiezen welke AI-toepassingen ze gebruiken, en hoe ze die gebruiken. Standaarden kunnen helpen om dat op een verantwoorde manier te doen. Als die standaarden flexibel zijn, of als er keuze is tussen verschillende standaarden, kunnen zorgorganisaties AI beter afstemmen op hun eigen situatie.

Samenwerken is de sleutel

Kortom: verantwoord innoveren met AI vraagt om meer dan goede techniek. Het gaat om waarden, samenwerking en leren van praktijkervaringen. Beleidsmedewerkers, projectleiders én gebruikers spelen hierin een sleutelrol: zij zorgen dat innovaties niet alleen slim, maar ook sociaal en ethisch verantwoord zijn.

AI wordt vaak gezien als een puur technische oplossing, maar het werkt nooit op zichzelf. AI kan alleen goed werken als we ook letten op de mensen, waarden en situaties die hierbij een rol spelen. 

De snelle ontwikkelingen dagen ons uit om na te denken over fundamentele vragen, zoals: hoe willen we interacties tussen mens en machine vormgeven en welke taken en verantwoordelijkheden laten we wel of niet over aan digitale technologie? Zeker in gevoelige domeinen zoals de zorg en ondersteuning voor ouderen en mensen met een beperking.

Lees meer

Lees ook het artikel Verantwoord innoveren met AI omvat meer dan privacy op ICT&health.

Op 8 december 2025 promoveert Dirk Lukkien, senior onderzoeker digitale zorg bij Vilans, op dit onderwerp. Hij zal in 2026 in enkele blogs verder ingaan op belangrijke lessen over verantwoorde AI-innovatie.

Deel deze pagina via: