Kunstmatige intelligentie in de gezondheidszorg: Belangrijke overwegingen voor oncologie
Kunstmatige intelligentie (AI) heeft het vermogen om de gezondheidszorg radicaal te veranderen. In de oncologie zijn er nu mogelijkheden om AI toe te passen ter ondersteuning van diagnostiek, voorspellende analyses en administratieve functies.
Dit actuele onderwerp werd besproken tijdens sessies over digitale innovatie (een AI-toepassing specifiek voor kanker) en geavanceerde klinische trajecten tijdens de Cancer Care Business Exchange in september 2024. Hoewel de businesscase tijdens deze levendige sessies duidelijk werd, is het belangrijk op te merken dat de ontwikkeling van AI-technologie veel sneller gaat dan de ontwikkeling van een passend en doordacht wet- en regelgevingskader voor deze cruciale technologie.
Ziekenhuizen, zorgverleners, zorgverzekeraars en externe leveranciers moeten praktische stappen ondernemen bij het selecteren en implementeren van nieuwe AI-oplossingen. Hieronder volgen enkele belangrijke overwegingen waarmee rekening moet worden gehouden bij het verdiepen in dit cruciale onderwerp:
Zorg ervoor dat alle toepasselijke privacy- en beveiligingsnormen worden nageleefd.
AI, en vaak ook het succes van de AI-oplossing, is afhankelijk van data. Bijna alle AI-oplossingen vereisen enorme hoeveelheden data, waarvoor data uit vele bronnen moet worden geïntegreerd en opgenomen, waaronder elektronische medische dossiersystemen, zorgverlenersplatforms en patiëntenportalen. Inzicht in hoe en door wie de AI-oplossing zal worden gebruikt en ondersteund, is van cruciaal belang om ervoor te zorgen dat zorginstellingen voldoen aan de federale en staatswetgeving op het gebied van privacy en veiligheid.[1] Leveranciers die AI-oplossingen voor zorgverleners ontwikkelen en ondersteunen, moeten ervoor zorgen dat hun oplossing voldoet aan de best practices voor basisprivacy en -beveiliging die zorgverleners verwachten.
Zorgverleners moeten op detailniveau begrijpen hoe de AI-oplossing werkt om te kunnen beoordelen welke wettelijke beschermingsmaatregelen nodig zijn. Welk type gegevens heeft de leverancier nodig om de AI-oplossing te laten werken en te ondersteunen? Als patiëntgegevens met de leverancier worden gedeeld, moet de zorgverlener waarschijnlijk minimaal een zakelijke samenwerkingsovereenkomst met de leverancier sluiten. Zorgverleners moeten weten welk type patiëntenverklaring eventueel vereist is. Sommige staatswetten schrijven voor dat personen op de hoogte moeten worden gesteld als hun persoonlijk identificeerbare gegevens door een AI-oplossing worden gebruikt om aanbevelingen of feedback te geven. Zorgverleners moeten ook letten op tekenen dat hun leveranciers gezondheidsgegevens voor eigen doeleinden willen gebruiken, zoals het trainen van hun AI-oplossing en het gebruik van de oplossing bij concurrenten van de zorgverlener. Elk gebruik van gegevens voor eigen doeleinden van een leverancier (dat geen verband houdt met het beheer van hun klantcontract) moet specifiek worden toegestaan in de overeenkomst voor zakelijke partners, en alle gegevens moeten worden geanonimiseerd in overeenstemming met HIPAA en met toestemming van de zorgverlener.
Actief toezicht houden op wetgevende en regelgevende activiteiten in het gebied, aangezien het toezicht waarschijnlijk zal toenemen.
Terwijl AI zich in een razend tempo ontwikkelt, blijft de regelgeving van de overheid achter. We kunnen echter verwachten dat er steeds vaker nieuwe wetten en officiële richtlijnen zullen komen. Een aantal staten heeft taskforces en raden opgericht om het gebruik van AI te bestuderen en te monitoren. In maart keurde Utah de"Artificial Intelligence Act" goed, die de eerste openbaarmakingsvereisten vaststelde voor het gebruik van generatieve AI in gereguleerde beroepen vanaf 1 mei 2024. En in mei keurde Colorado de wet "Consumer Protections for Interactions with Artificial Intelligence" goed (met ingangsdatum 1 februari 2026, de eerste staatswet die "risicovolle kunstmatige-intelligentiesystemen" reguleert).[2] Voor meer informatie, zie Foley's blog Colorado Passes New AI Law to Protect Consumer Interactions.
AI-gestuurde medische apparaten moeten mogelijk worden goedgekeurd voordat ze kunnen worden geïmplementeerd
Leveranciers moeten nagaan of de voorgestelde AI-gestuurde oplossingen wettelijke goedkeuring vereisen (bijvoorbeeld als medisch hulpmiddel) en, zo niet, welke wettelijke richtlijnen de marketing van hun product ondersteunen, samen met passende verklaringen en garanties die dergelijke uitspraken staven. Hoewel AI kan worden getraind om te leren van fouten en zich te ontwikkelen om de prestaties te verbeteren, zijn de bestaande regelgevingsmodellen ontworpen om het statische kader waarin de AI opereert te evalueren. Als gevolg hiervan hebben veel medische hulpmiddelen mogelijk geen passende wettelijke goedkeuring, terwijl die wel nodig is, of kunnen ze in de toekomst aan een goedkeuringsvereiste worden onderworpen. De Food and Drug Administration (FDA) onderzoekt manieren om AI-oplossingen vollediger te evalueren (en heeft sinds augustus 2024 950 AI/ML-compatibele medische hulpmiddelen goedgekeurd), maar zal uiteindelijk wellicht het Congres om advies vragen in de vorm van nieuwe wetgeving. In de tussentijd moeten aanbieders alle voorgestelde AI-gestuurde medische hulpmiddelen door een adviseur laten controleren voordat ze worden geïmplementeerd.
Neem maatregelen om uzelf te beschermen door middel van zorgvuldigheid en contracten
Stel je het ergste scenario voor. Bijvoorbeeld dat je AI-leverancier het slachtoffer wordt van een cyberaanval. Of dat er een diagnose wordt gemist vanwege een probleem met een AI-product en een te grote afhankelijkheid van de AI-oplossing door een zorgverlener. Zorgverleners moeten zorgvuldig beleid en procedures implementeren waarin het goedgekeurde gebruik van AI door de organisatie wordt beschreven, hun leveranciers en de AI-oplossing grondig controleren, contracten laten beoordelen om passende beschermingsmaatregelen in te bouwen en ervoor zorgen dat er verzekeringen en andere aansprakelijkheidsbeschermingen zijn. Passende zorgvuldigheid omvat onder meer of de leverancier zich op de juiste wijze heeft geregistreerd om zijn intellectuele eigendom te beschermen, of de leverancier zijn werknemers en agenten controleert om gezondheidsfraude en andere risicovolle gebieden te voorkomen, welke verzekeringsdekking (inclusief cyberdekking) de leverancier heeft en welke middelen beschikbaar zijn als er een claim wordt ingediend. Contracten moeten proactief de verantwoordelijkheid dienovereenkomstig toewijzen. Veel leveranciers bieden standaardcontracten aan. Deze moeten zorgvuldig worden gecontroleerd om er zeker van te zijn dat ze de volgende juridische voorwaarden bevatten:
- Basisprestatieverwachtingen
- Verklaringen en garanties met betrekking tot naleving en prestaties
- Vertrouwelijkheid/privacy en veiligheid
- Non-sollicitatieverplichtingen of andere beperkende overeenkomsten (met name voor leveranciers die ter plaatse zullen zijn)
- Vrijwaringsbepalingen – let op vrijwaringen die verband houden met nalatigheid, schending, opzettelijk wangedrag, cybercriminaliteit en inbreuk op intellectuele eigendomsrechten.
- Aansprakelijkheidslimieten – veel leveranciers streven naar een maximum van één tot drie jaar terugwerkende kracht voor vergoedingen.
Ontwikkel en implementeer passende IT- en AI-governanceprocedures
Een duidelijk omschreven kader voor corporate governance kan zorgen over de ethische implementatie van AI wegnemen, vertrouwen in de AI-oplossing opbouwen en helpen om de aansprakelijkheid van een bedrijf in de toekomst te minimaliseren. Dit omvat het opstellen van beleid en procedures, waaronder passende training voor personeel dat toegang heeft tot of gebruikmaakt van de AI-oplossing, en dat de organisatie in staat stelt om AI tijdens het implementatieproces en in de toekomst te controleren, te overzien en te monitoren. Het is echter belangrijk om dergelijk governancebeleid voortdurend te controleren en aan te passen naarmate de technologie en gebruiksscenario's van AI zich verder ontwikkelen, en om de naleving van dergelijk governancebeleid binnen uw organisatie te monitoren.
Geef prioriteit aan oplossingen die vergoedingen ondersteunen of verbeteren
AI kan helpen bij het stimuleren van efficiëntie en innovatie, wat vooral kan leiden tot betere patiëntenzorg en resultaten, maar slimme oncologiepraktijken zullen ook op zoek gaan naar AI-oplossingen die hun winstgevendheid kunnen vergroten. Is de AI-oplossing zelf vergoedbaar en/of heeft de leverancier een manier om vergoeding te krijgen? Is het product gecertificeerd voor naleving van de kwaliteitsrapportageprogramma's van de Centers for Medicare & Medicaid Services (CMS), zoals het Merit-based Incentive Payment System (MIPS) en staatsprogramma's ter bevordering van interoperabiliteit? De certificering van het Office of the National Coordinator for Health Information Technology (ONC) wordt door CMS erkend als bevestiging van de naleving van de vereisten op het gebied van beveiliging, functionaliteit en technologie.[3]
Afhankelijk van de mate van integratie met de AI-oplossing moeten leveranciers echter mogelijk maatregelen nemen om te voldoen aan de vereisten van ONC voor generatieve AI-oplossingen en klinische beslissingsondersteunende tools.
Volgende stappen
Nu AI steeds meer deel uitmaakt van de operationele structuur van de gezondheidszorg, kunnen deze praktische maatregelen worden genomen om de risico's voor naleving, privacy en beveiligingsprocessen te verminderen. Foley volgt deze zich ontwikkelende juridische en zakelijke situatie met betrekking tot AI nauwlettend in meerdere sectoren, waaronder innovatieve technologie, gezondheidszorg en biowetenschappen, en intellectueel eigendom, met een team vanFoley-advocatendat klaarstaat om te helpen. Neem bij vragen contact op met de auteurs, uw Foley-relatiepartner, onzeArtificial Intelligence Area of FocusenHealth Care & Life Sciences Sector.
*De auteurs erkennen de bijdragen van speciaal adviseur Jacqueline Acosta en Francesca Camacho, studente aan de Boston University School of Law en zomermedewerkster bij Foley & Lardner LLP in 2024.
[1] Veel staten hebben privacy- en veiligheidsnormen die in veel gevallen verder gaan dan de federale basisnormen en die moeten worden herzien.
[2] SB205 (Consumentenbescherming bij interacties met kunstmatige intelligentie).
[3] ONC heeft onlangs herziene certificeringscriteria gepubliceerd voor 'beslissingsondersteunende interventies', 'demografische gegevens en observaties van patiënten' en 'elektronische casusrapportage', evenals een nieuwe basisversie van de United States Core Data for Interoperability (USCDI)-standaard naar versie 3.