NWO-subsidies voor onderzoek naar ethische AI in gezondheidszorg

- EN- NL

Twee projecten waarin onderzoek gedaan wordt naar hoe AI ingezet wordt binnen onder andere de gezondheidszorg ontvangen een subsidie van de Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO).

Beide onderzoeksprojecten zijn onderdeel van de NGF-Call AiNed ELSA Labs van NWO In totaal zijn er vier projecten gefinancierd. Bij een van de projecten is onderzoeker van de Radboud Universiteit de hoofdaanvrager; bij het andere project, van de Universiteit van Amsterdam, zijn onderzoekers van de Radboud Universiteit betrokken als mede-aanvragers.

Legal, Regulatory, and Policy Aspects of Clinical Decision Support Systems

Hoofdaanvrager: Johan Kwisthout , Faculteit der Sociale Wetenschappen.

Voor het ELSA Lab Legal, Regulatory, and Policy Aspects of Clinical Decision Support Systems ontvangen de onderzoekers een subsidie van 1,7 miljoen euro. Zij gaan onderzoeken aan welke voorwaarden beslissingsondersteunende systemen moeten voldoen om in de zorg toegepast te worden.

Het project start op 1 september 2025. Johan Kwisthout, hoogleraar AI en aanvoerder van het project, staat te trappelen om te beginnen: ’ AI is erg belangrijk om individuele zorg, met oog voor kwaliteit van leven, mogelijk te maken. Een beslissingsondersteunend systeem kan scenario’s uitrekenen zodat arts en patiënt samen keuzes kunnen maken bij ingrijpende medische handelingen. Risico’s, bijvoorbeeld op uitzaaiingen van een tumor, kunnen afgewogen worden tegen de impact van een behandeling, zoals preventief verwijderen van lymfeklieren.’

’Door technologie in de zorg te gebruiken, moet je er echter ook rekening mee houden dat je een stukje verantwoordelijkheid van de arts overneemt. De arts kent niet alle ins en outs en details van de technologie maar moet kunnen vertrouwen op de kwaliteit van het advies,’ waarschuwt Kwisthout. ’ Echter, omdat beslissingsondersteunende systemen gebaseerd zijn op AI-technologieën, getraind op data met bias, door onbekende algoritmen, met niet nader gespecificeerde parameters, levert dit medisch-ethische en juridische problemen op.’

’Binnen het project onderzoeken we aan welke voorwaarden de ontwikkeling en het gebruik van AI moeten voldoen zodat de arts hier gebruik van kan maken. We beschrijven wat er nodig is, bijvoorbeeld qua kwaliteitscontrole, training en ervaring van de arts, traceerbaarheid van de technologie, en begrip van de patiënt, om dit samen beslissen over zorg met behulp van AI niet alleen technisch mogelijk te maken, maar ook juridisch legitiem, medisch-ethisch verantwoord, en maatschappelijk geaccepteerd.’

Samenwerking

Het project is een publiek-private samenwerking tussen juristen, ethici, AI-specialisten, patiënten en medici. Ook is er binnen het lab ruimte voor inbreng van kennisinstellingen, bedrijven, de publieke sector, artsen en patiëntenverenigingen. Volgens Kwisthout is dat essentieel: ’Het heeft geen zin om regels op te stellen die technisch niet uitvoerbaar zijn of niet te handhaven. En voordat je regelgeving opstelt die spreekt over verantwoord gebruik van AI, moet je eerst definiëren wat je precies bedoelt met verantwoord gebruik.’

’Een oncoloog gebruikt bijvoorbeeld ook een MRI-scanner zonder precies te weten hoe deze werkt. Die oncoloog mag er wél van uitgaan dat de ontwikkeling van de scanner aan kwaliteitscontrole onderhevig is, en heeft waarschijnlijk een training gevolgd om de scanner goed te kunnen gebruiken. Die kant moeten we ook op met AI. Daarom is het zo belangrijk dat we al deze disciplines aan boord hebben.’

ELSA Lab AI for Health Equity: Towards Fairness & Justice in Medical AI

Hoofdaanvrager: Anniek de Ruijter, Universiteit van Amsterdam. Mede-aanvragers vanuit de Radboud Universiteit: Pim Haselager Anco Peeters , Faculteit der Sociale Wetenschappen.

Daarnaast heeft NWO 2,3 miljoen euro vrijgemaakt voor het ELSA Lab AI for Health Equity: Towards Fairness & Justice in Medical AI. AI kan de gezondheidszorg verbeteren, maar het risico bestaat ook dat bestaande ongelijkheden groter worden. AI-systemen die getraind zijn met beperkte datasets zouden kunnen minder goed presteren voor diverse bevolkingsgroepen. Dit ELSA Lab brengt deze problemen in kaart en ontwikkelt oplossingen voor een inclusieve digitale gezondheidsinfrastructuur. Hierbij wordt rekening gehouden met bestaande regelgeving, zoals de AVG, en worden richtlijnen opgesteld om AI eerlijker te maken.

Het lab wordt geleid door Anniek de Ruijter (gezondheidsrecht) en Julia van Weert (gezondheidscommunicatie) van de Universiteit van Amsterdam. ’We zijn trots om deze samenwerking te leiden tussen recht, communicatiewetenschap, AI, gezondheidszorg en maatschappelijke betrokkenheid’, zegt de Ruijter. ’Met dit lab willen we zorgen dat rechtvaardigheid in de toepassing van AI in de zorg een kernwaarde vormt.’

Rechtvaardige, toegankelijke zorg

Daarnaast zijn bij het lab Pim Haselager en Anco Peeters van de Radboud Universiteit betrokken. Zij kijken mee naar de rol die kunstmatige intelligentie kan spelen om zorg rechtvaardiger en toegankelijker te maken. Anco Peeters, onderzoeker in de onderzoeksgroep Societal Implications of AI: ’In ons onderzoek staan de maatschappelijke en ethische implicaties van AI centraal. Vanuit die expertise dragen wij bij aan dit ELSA-lab door te onderzoeken welke morele zorgen er zijn voor hoe bijvoorbeeld mensen met laaggeletterdheid meer barrières tegenkomen dan anderen in zorgvragen.’

Over AiNed ELSA Labs

AI ontwikkelt zich razendsnel en brengt wereldwijd ingrijpende veranderingen teweeg. Dat leidt leidt tot uiteenlopende ethische (E), juridische (L), maatschappelijke en economische (S) vraagstukken (A), aldus de gedachte achter de ELSA Labs. Verantwoorde AI-ontwikkeling vereist niet alleen technologische vooruitgang, maar ook maatschappelijke inbedding en het benutten van economische kansen. De toegewezen projecten richten zich op het aanpakken van deze uitdagingen.

In het projectvoorstel voor een ELSA Lab komt naar voren dat de ELSA aspecten en technologie in samenhang worden bestudeerd, dat er AI plaatsvindt op basis van publieke waarden en mensenrechten en er worden kaders en richtlijnen voor de ontwikkeling van mensgerichte AI getoetst en (door)ontwikkeld.