Inteligência artificial nos cuidados de saúde: Considerações fundamentais para a oncologia
A inteligência artificial (IA) tem o poder de revolucionar os cuidados de saúde. Na oncologia, existem agora oportunidades para aplicar a IA para apoiar diagnósticos, análises preditivas e funções administrativas.
Este tema quente foi discutido em sessões sobre Inovação Digital (um caso de uso de IA específico para o cancro) e Caminhos Clínicos Avançados no Cancer Care Business Exchange de setembro de 2024. Embora o caso de negócios tenha ficado claro por meio dessas sessões animadas, é importante observar que o desenvolvimento da tecnologia de IA está muito à frente do desenvolvimento de uma estrutura legislativa e regulatória adequada e bem pensada para essa tecnologia crítica.
Hospitais, prestadores de serviços, pagadores e fornecedores terceirizados devem tomar medidas práticas na seleção e implementação de quaisquer novas soluções de IA. Abaixo estão algumas considerações importantes a serem lembradas ao se aprofundar nessa área crítica:
Garantir a conformidade com todas as normas de privacidade e segurança aplicáveis
A IA, e muitas vezes o sucesso da solução de IA, depende dos dados. Quase todas as soluções de IA requerem enormes volumes de dados, o que exige a integração e a ingestão de dados de muitas fontes, incluindo sistemas de registos médicos eletrónicos, plataformas de prestadores e portais de pacientes. Compreender como e quem utilizará e apoiará a solução de IA é fundamental para garantir que as organizações de cuidados de saúde cumpram as leis federais e estaduais de privacidade e segurança.[1] Os fornecedores que criam e suportam soluções de IA para prestadores de cuidados de saúde devem garantir que a sua solução cumpre e está em conformidade com as melhores práticas de privacidade e segurança básicas que os prestadores de cuidados de saúde esperam.
Os prestadores de cuidados de saúde devem compreender em detalhe como a solução de IA funciona, a fim de avaliar as proteções regulamentares necessárias. Que tipo de dados o fornecedor exigirá para operar e dar suporte à solução de IA? Se as informações dos pacientes forem partilhadas com o fornecedor, é provável que o prestador precise de ter, no mínimo, um acordo de parceria comercial com o fornecedor. Os prestadores de cuidados de saúde devem compreender que tipo de aviso ao paciente, se houver, é necessário. Algumas leis estaduais exigem que os indivíduos sejam avisados se as suas informações pessoais identificáveis forem utilizadas por uma solução de IA para fins de recomendação ou feedback. Os prestadores também devem estar atentos a sinais de que os seus fornecedores procurarão utilizar os dados de saúde para os seus próprios fins, como treinar a sua solução de IA e utilizar a solução com os concorrentes do prestador. Qualquer utilização de dados para fins próprios do fornecedor (não relacionados com a administração do seu contrato com o cliente) teria de ser especificamente permitida no acordo de parceria comercial, e quaisquer dados teriam de ser anonimizados de acordo com a HIPAA e de acordo com a autorização do prestador de cuidados de saúde.
Monitorar ativamente as atividades legislativas e regulatórias na área, uma vez que é provável que a supervisão aumente
Com a IA a avançar a um ritmo vertiginoso, a regulamentação governamental tem sido lenta; no entanto, podemos esperar ver novas leis e orientações oficiais com frequência cada vez maior. Vários estados criaram forças-tarefa e conselhos para estudar e monitorizar o uso da IA. Em março, Utah aprovou a«Lei da Inteligência Artificial», que estabeleceu os primeiros requisitos de divulgação para o uso de IA generativa em profissões regulamentadas a partir de 1 de maio de 2024. E, em maio, o Colorado aprovou o projeto de lei “Proteções ao Consumidor para Interações com Inteligência Artificial” (com data de vigência a partir de 1º de fevereiro de 2026, a primeira lei estadual a regulamentar “sistemas de inteligência artificial de alto risco”).[2] Para obter mais informações, consulte o blog da Foley Colorado aprova nova lei de IA para proteger as interações dos consumidores.
Os dispositivos médicos baseados em IA podem exigir aprovações antes de poderem ser implementados
Os fornecedores devem confirmar se as soluções propostas baseadas em IA requerem aprovação regulatória (por exemplo, como um dispositivo médico) e, caso contrário, quais orientações regulatórias apoiam a comercialização do seu produto, juntamente com representações e garantias adequadas que respaldem tais declarações. Embora a IA possa ser treinada para aprender com os erros e evoluir para melhorar o desempenho, os modelos regulatórios existentes são projetados para avaliar a estrutura estática na qual a IA opera. Como resultado, muitos dispositivos médicos podem precisar, mas não ter, a aprovação regulamentar adequada, ou podem estar sujeitos a um requisito de aprovação no futuro. A Food and Drug Administration (FDA) está a explorar maneiras de avaliar mais completamente as soluções de IA (e, em agosto de 2024, autorizou 950 dispositivos médicos habilitados para IA/ML), mas, em última análise, pode recorrer ao Congresso para obter orientação na forma de nova legislação. Enquanto isso, os fornecedores devem examinar qualquer dispositivo médico baseado em IA proposto com um advogado antes da adoção.
Tome medidas para se proteger através da diligência e de contratos
Imagine o pior cenário possível. Por exemplo, o seu fornecedor de IA sofre um ataque de cibersegurança. Ou um diagnóstico é perdido devido a um problema com um produto de IA e à confiança excessiva do fornecedor na solução de IA. Os fornecedores devem implementar cuidadosamente políticas e procedimentos que descrevam os usos aprovados de IA pela organização, avaliar minuciosamente os seus fornecedores e a solução de IA, revisar os contratos para incorporar proteções adequadas e garantir que seguros e outras proteções de responsabilidade civil estejam em vigor. As áreas de diligência adequadas incluem se o fornecedor se registou adequadamente para proteger a sua propriedade intelectual; se o fornecedor avalia os seus funcionários e agentes para se proteger contra fraudes na área da saúde e outras áreas de alto risco; que cobertura de seguro (incluindo cobertura cibernética) o fornecedor tem em vigor; e que recursos estão disponíveis se for apresentada uma reclamação. Os contratos devem atribuir proativamente a responsabilidade de acordo com isso. Muitos fornecedores oferecem contratos padrão. Estes devem ser cuidadosamente revistos para garantir que incluem os seguintes termos legais:
- Expectativas básicas de desempenho
- Declarações e garantias relativas à conformidade e desempenho
- Confidencialidade/privacidade e segurança
- Obrigações de não solicitação ou outras cláusulas restritivas (especialmente para fornecedores que estarão no local)
- Disposições de indemnização – procure indemnizações relacionadas com negligência, violação, conduta dolosa, cibernética e violação de propriedade intelectual.
- Limites de responsabilidade – muitos fornecedores procuram limitar a um a três anos a retroatividade das taxas.
Desenvolver e implementar procedimentos adequados de governança de TI e IA
Uma estrutura de governança corporativa bem definida pode combater as preocupações com a implementação ética da IA, construir confiança na solução de IA e ajudar a minimizar a responsabilidade da empresa no futuro. Isso inclui a criação de políticas e procedimentos, incluindo formação adequada para o pessoal que irá aceder ou utilizar a solução de IA, e que permitirá à organização avaliar, supervisionar e monitorizar a IA durante o processo de implementação e de forma contínua. No entanto, é importante avaliar e iterar continuamente essas políticas de governança, à medida que a tecnologia e os casos de uso da IA continuam a se desenvolver, bem como monitorar a conformidade com essas políticas de governança dentro da sua organização.
Priorize soluções que apoiem ou melhorem o reembolso
A IA pode ajudar a impulsionar a eficiência e a inovação que, acima de tudo, podem levar a um melhor atendimento ao paciente e melhores resultados, mas as clínicas oncológicas experientes também procurarão soluções de IA que possam melhorar os seus resultados financeiros. A solução de IA em si é reembolsável e/ou o fornecedor tem um caminho para o reembolso? O produto é certificado em conformidade com os programas de relatórios de qualidade dos Centros de Serviços Medicare e Medicaid (CMS), como o Sistema de Pagamento de Incentivos com Base no Mérito (MIPS) e programas estaduais de promoção da interoperabilidade? A certificação do Gabinete do Coordenador Nacional de Tecnologia da Informação em Saúde (ONC) é reconhecida pelo CMS para confirmar a conformidade com os requisitos de segurança, funcionalidade e tecnologia.[3]
No entanto, dependendo do nível de integração com a solução de IA, os fornecedores podem ter de tomar medidas para cumprir os requisitos da ONC para soluções de IA generativa e ferramentas de apoio à decisão clínica.
Próximos passos
À medida que a IA se torna cada vez mais parte integrante da estrutura operacional dos cuidados de saúde, estas medidas práticas podem ser tomadas para reduzir os riscos para os processos de conformidade, privacidade e segurança. A Foley está a acompanhar de perto esta evolução do panorama jurídico e empresarial relacionado com a IA em vários setores, incluindo tecnologia inovadora, cuidados de saúde e ciências da vida, e propriedade intelectual, com uma equipa deadvogados da Foleypronta a prestar assistência. Entre em contacto com os autores, o seu parceiro de relacionamento da Foley,anossaÁrea de Foco em Inteligência Artificialeo Setor de Saúde e Ciências da Vidapara esclarecer quaisquer dúvidas.
*Os autores agradecem as contribuições da consultora jurídica especial Jacqueline Acosta e de Francesca Camacho, estudante da Faculdade de Direito da Universidade de Boston e estagiária de verão de 2024 na Foley & Lardner LLP.
[1] Muitos estados têm normas de privacidade e segurança que, em muitos casos, excedem os requisitos mínimos federais, os quais devem ser revistos.
[2] SB205 (Proteções ao consumidor para interações com inteligência artificial).
[3] A ONC publicou recentemente critérios de certificação revistos para «intervenções de apoio à decisão», «dados demográficos e observações dos pacientes» e «relatórios eletrónicos de casos», bem como uma nova versão de referência da norma United States Core Data for Interoperability (USCDI) para a Versão 3.