AI wordt steeds vaker toegepast in de zorg
De KNMG steunt de oproep van de Europese artsenkoepel CPME en de Europese ziekenhuizen- en gezondheidsfederatie HOPE, om de veiligheidswaarborgen voor kunstmatige intelligentie (AI) in medische hulpmiddelen te behouden binnen de Europese regelgeving.
AI wordt steeds vaker toegepast in de zorg. Denk bijvoorbeeld aan software die radiologische beelden analyseert, artsen ondersteunt bij het stellen van een diagnose of risico’s op complicaties voorspelt. Zulke toepassingen kunnen de zorg verbeteren en artsen helpen bij klinische besluitvorming. Tegelijk kan AI ook direct invloed hebben op medische beslissingen. Daarom is het belangrijk dat AI-systemen die in de zorg worden gebruikt aan duidelijke en strikte eisen voldoen.
Voor medische hulpmiddelen gelden in Europa al regels, zoals de Medical Device Regulation en de In Vitro Diagnostic Regulation. Deze regelgeving ziet toe op de veiligheid en prestaties van medische technologie. Voor AI gelden daarnaast aanvullende regels in de Artificial Intelligence Act, die specifiek ingaan op risico’s van AI, zoals de kwaliteit van trainingsdata, mogelijke bias in algoritmen, transparantie van systemen en de mogelijkheid voor menselijke controle.
In Brussel spreken wetgevers momenteel over aanpassingen in het zogenoemde Digital Omnibus-pakket. Daarbij ligt een voorstel op tafel om medische hulpmiddelen deels uit te zonderen van onderdelen van de AI Act. Daardoor zouden bepaalde AI-toepassingen in medische technologie mogelijk niet langer automatisch als “hoog-risico-systemen” worden aangemerkt en dus onder minder strenge eisen vallen.
Wij delen de zorgen van Europese artsen- en ziekenhuisorganisaties dat het loslaten van deze waarborgen risico’s kan opleveren voor patiëntveiligheid en kwaliteit van zorg. AI-systemen zijn vaak data-gedreven en kunnen zich blijven ontwikkelen op basis van nieuwe data. Dat brengt specifieke risico’s met zich mee, bijvoorbeeld rond de representativiteit van datasets, veranderingen in modelprestaties en de uitlegbaarheid van algoritmen die medische beslissingen ondersteunen.
Samen met onze Europese partners pleiten wij ervoor dat AI-toepassingen in medische hulpmiddelen onder het kader van de AI Act blijven vallen. Zo blijven duidelijke eisen gelden voor onder meer datasetkwaliteit, modelvalidatie, transparantie en menselijke controle.
Wij roepen de Nederlandse regering en Nederlandse leden van het Europees Parlement daarom op om bij de behandeling van de voorstellen aandacht te houden voor patiëntveiligheid en voor het behoud van duidelijke Europese normen voor AI in de gezondheidszorg.
Innovatie in de zorg kan alleen duurzaam plaatsvinden wanneer nieuwe technologieën worden ontwikkeld en toegepast binnen een zorgvuldig regelgevend kader. Dat is essentieel om het vertrouwen van patiënten en zorgprofessionals te behouden.
Zie ook
Dossier CPME.
Bron: KNMG
/H325_IST_19382_07682.jpg)
/e_650_0158.jpg)
/d_650_0117.jpg)
/G_650_179.jpg)
/f_650_0069.jpg)
/e_650_0160.jpg)
/a_650_1344.jpg)
/f_650_0001.jpg)
/H325_iss_3531_02285.jpg)
