Desarrollo de fármacos de IA: La FDA publica un proyecto de directrices
El 6 de enero de 2025, la Administración de Alimentos y Medicamentos de EE.UU. (FDA) publicó un proyecto de directrices titulado Consideraciones para el uso de la inteligencia artificial como apoyo a la toma de decisiones reglamentarias sobre medicamentos y productos biológicos ("guía") que explica los tipos de información que la agencia puede buscar durante la evaluación de fármacos. En particular, la guía esboza un marco de riesgo basado en un "contexto de uso" de la tecnología de Inteligencia Artificial (IA) y detalla la información que podría solicitarse (o requerirse) en relación con las tecnologías de IA, los datos utilizados para entrenar las tecnologías y la gobernanza en torno a las tecnologías, con el fin de aprobar su uso. A un alto nivel, la guía subraya los objetivos de la FDA para establecer la credibilidad del modelo de IA dentro del contexto de uso.
Este artículo ofrece una visión general de las directrices, incluidos ejemplos de contextos de uso y detalles del marco de riesgo, al tiempo que explica cómo se relacionan con el establecimiento de la credibilidad del modelo de IA a través de los datos sugeridos y las divulgaciones relacionadas con el modelo. Además, detalla las consideraciones de estrategia jurídica, junto con las oportunidades de innovación, que se derivan de las directrices. Estas consideraciones serán valiosas para los patrocinadores (es decir, de las investigaciones clínicas, como las solicitudes de exención de investigación de nuevos fármacos), junto con los desarrolladores de modelos de IA y otras empresas en el ámbito del desarrollo de fármacos.
Definir la cuestión de interés
El primer paso en el marco de la guía es definir la "cuestión de interés": la pregunta, decisión o preocupación específica que aborda el modelo de IA. Por ejemplo, las cuestiones de interés podrían estar relacionadas con el uso de la tecnología de IA en ensayos clínicos con seres humanos, como los criterios de inclusión y exclusión para la selección de participantes, la clasificación del riesgo de los participantes o la determinación de procedimientos relacionados con medidas de resultados clínicos de interés. Las cuestiones de interés también podrían estar relacionadas con el uso de la tecnología de IA en los procesos de fabricación de medicamentos, por ejemplo para el control de calidad.
Contextos de uso
A continuación, la guía establece contextos de uso -el alcance y la función específicos de un modelo de IA para abordar la cuestión de interés- como punto de partida para comprender cualquier riesgo asociado al modelo de IA y, a su vez, cómo podría establecerse la credibilidad.
Las directrices hacen hincapié en que se limitan a los modelos de IA (incluso para el descubrimiento de fármacos) que afectan a la seguridad de los pacientes, la calidad de los fármacos o la fiabilidad de los resultados de los estudios clínicos o no clínicos. Por lo tanto, las empresas que utilizan modelos de IA para descubrir fármacos pero se basan en procesos más tradicionales para abordar factores que la FDA tiene en cuenta para aprobar un fármaco, como la seguridad, la calidad y la estabilidad, deben conocer los principios subyacentes de las directrices, pero es posible que no necesiten modificar su gobernanza actual en materia de IA. Un factor importante a la hora de definir los contextos de uso es el papel que desempeña el modelo de IA en relación con otros procesos automatizados o supervisados por humanos; por ejemplo, los procesos en los que se proporciona a una persona los resultados de la IA para su verificación serán diferentes de los que están diseñados para ser totalmente automatizados.
En las orientaciones se introducen varios tipos de contextos de uso, entre ellos:
- Diseño y gestión de ensayos clínicos
- Evaluación de pacientes
- Adjudicación de criterios de valoración
- Análisis de datos de ensayos clínicos
- Tecnologías sanitarias digitales para el desarrollo de fármacos
- Farmacovigilancia
- Fabricación farmacéuticaGeneración de pruebas en el mundo real (RWE)
- Mantenimiento del ciclo de vida
Marco de riesgo para determinar el grado de divulgación de información
Las orientaciones proponen que el nivel de riesgo planteado por el modelo de IA dicte el alcance y la profundidad de la información que debe divulgarse sobre el modelo de IA. El riesgo se determina en función de dos factores: 1) cuánto influirá el modelo de IA en la toma de decisiones (riesgo de influencia del modelo), y 2) las consecuencias de la decisión, como los riesgos para la seguridad del paciente (riesgo de consecuencia de la decisión).
En el caso de los modelos de IA de alto riesgo -en los que los resultados podrían afectar a la seguridad de los pacientes o a la calidad de los medicamentos-, es posible que deban presentarse detalles exhaustivos sobre la arquitectura del modelo de IA, las fuentes de datos, las metodologías de formación, los procesos de validación y las métricas de rendimiento para su evaluación por parte de la FDA. Por el contrario, la divulgación requerida puede ser menos detallada para los modelos de IA que planteen un riesgo bajo. Este enfoque escalonado fomenta la credibilidad y evita cargas de divulgación innecesarias para los escenarios de menor riesgo.
Sin embargo, es probable que la mayoría de los modelos de IA dentro del ámbito de esta guía se consideren de alto riesgo porque se están utilizando para la gestión de ensayos clínicos o la fabricación de fármacos, por lo que las partes interesadas deben estar preparadas para revelar amplia información sobre un modelo de IA utilizado para apoyar la toma de decisiones. Los patrocinadores que utilizan métodos tradicionales (no IA) para desarrollar sus productos farmacéuticos están obligados a presentar la fabricación y los controles químicos, clínicos y no clínicos completos para apoyar la revisión de la FDA y la aprobación final de una solicitud de nuevo fármaco. Aquellos patrocinadores que utilicen modelos de IA deben presentar la misma información, pero además deben proporcionar información sobre el modelo de IA como se indica a continuación.
Resumen de alto nivel de las directrices de cumplimiento en función del contexto de uso
Las orientaciones ofrecen además un esquema detallado de los pasos a seguir para establecer la credibilidad de un modelo de IA, dado su contexto de uso. Los pasos incluyen la descripción de: (1) el modelo, (2) los datos utilizados para desarrollar el modelo, (3) la formación del modelo, (4) y la evaluación del modelo, incluidos los datos de prueba, las métricas de rendimiento y los problemas de fiabilidad, como el sesgo, la garantía de calidad y la gestión de errores de código. Es de esperar que los patrocinadores sean más detallados en las divulgaciones a medida que aumenten los riesgos asociados con estos pasos, en particular cuando aumente el impacto sobre los participantes del ensayo y/o los pacientes.
Además, la FDA hace especial hincapié en el mantenimiento durante el ciclo de vida de la credibilidad de los resultados de los modelos de IA. Por ejemplo, a medida que cambien las entradas o el despliegue de un modelo de IA determinado, puede ser necesario reevaluar el rendimiento del modelo (y, por lo tanto, proporcionar las revelaciones correspondientes para respaldar la credibilidad continuada).
Consideraciones sobre la propiedad intelectual
Patente frente a secreto comercial
Las partes interesadas deberían considerar cuidadosamente la posibilidad de patentar las innovaciones subyacentes a los modelos de IA utilizados para la toma de decisiones. Los amplios requisitos de la FDA en materia de transparencia y presentación de información sobre arquitecturas de modelos de IA, datos de entrenamiento, procesos de evaluación y planes de mantenimiento del ciclo de vida supondrían un reto importante para mantener estas innovaciones como secretos comerciales.
Dicho esto, la protección del secreto comercial de al menos algunos aspectos de los modelos de IA es una opción cuando no es necesario divulgar el modelo de IA. Si el modelo de IA se utiliza para el descubrimiento de fármacos o para operaciones que no afectan a la seguridad de los pacientes o a la calidad de los medicamentos, puede ser posible mantener en secreto el modelo de IA o sus datos de entrenamiento. Sin embargo, los modelos de IA utilizados para la toma de decisiones estarán sujetos a la necesidad de transparencia y divulgación de información de la FDA, lo que probablemente pondrá en peligro la protección del secreto comercial. Garantizando la protección de patentes sobre los modelos de IA, las partes interesadas pueden salvaguardar su propiedad intelectual al tiempo que satisfacen los requisitos de transparencia de la FDA.
Oportunidades de innovación
Las directrices exigen evaluaciones rigurosas de los riesgos, normas de idoneidad de los datos y procesos de validación de los modelos, lo que sentará las bases para la creación de herramientas y sistemas que satisfagan estas exigencias. Como se ha señalado anteriormente, los enfoques innovadores para gestionar y validar los modelos de IA utilizados para la toma de decisiones no son buenos candidatos para la protección del secreto comercial, y las partes interesadas deben garantizar la pronta identificación y patentamiento de estas invenciones.
Hemos identificado oportunidades específicas para la innovación en IA que probablemente se vean impulsadas por las exigencias de la FDA reflejadas en las directrices:
- Requisitos de transparencia
- Diseñar modelos de IA con capacidades explicables que demuestren cómo se toman las decisiones o se hacen las predicciones.
- Sesgo y adecuación de los datos
- Sistemas de detección de sesgos en los datos de entrenamiento
- Sistemas de corrección de sesgos en los datos de entrenamiento
- Sistemas de control del mantenimiento del ciclo de vida
- Sistemas para detectar desviaciones de datos o cambios en el modelo de IA durante el ciclo de vida del medicamento.
- Sistemas para reentrenar o revalidar el modelo de IA cuando sea necesario debido a la desviación de los datos.
- Sistemas automatizados de seguimiento del rendimiento de los modelos
- Métodos de ensayo
- Desarrollar modelos que puedan probarse con conjuntos de datos y condiciones independientes para demostrar su generalizabilidad.
- Integración de modelos de IA en un flujo de trabajo práctico
- Buenas prácticas de fabricación
- Sistemas de ayuda a la decisión clínica
- Sistemas de documentación
- Sistemas automáticos para generar informes de desarrollo de modelos, evaluación, actualizaciones y evaluaciones de credibilidad que puedan presentarse a la FDA para cumplir los requisitos normativos.
La guía ofrece numerosas oportunidades para que las innovaciones mejoren la credibilidad, la transparencia y el cumplimiento normativo de la IA a lo largo del ciclo de vida de los medicamentos. Como se ha demostrado anteriormente, los retos que la FDA pretende abordar para validar el uso de la IA en el desarrollo de fármacos se corresponden claramente con posibles innovaciones. Dichas innovaciones son probablemente valiosas, ya que son necesarias para cumplir las directrices de la FDA y ofrecen importantes oportunidades para desarrollar una cartera de patentes competitiva.
Conclusión
Con esta guía, la FDA ha propuesto directrices para establecer la credibilidad en los modelos de IA que tienen riesgos e impactos para los participantes en ensayos clínicos y los pacientes. Esta guía, aunque en forma de borrador no vinculante, sigue un marco paso a paso desde la definición de la cuestión de interés y el establecimiento del contexto de uso del modelo de IA hasta la evaluación de los riesgos y, a su vez, el establecimiento del alcance de la divulgación que puede ser relevante. La guía expone las ideas más actuales de la FDA sobre el uso de la IA en el desarrollo de medicamentos. Teniendo en cuenta este marco y el correspondiente nivel de divulgación que puede esperarse, los patrocinadores pueden considerar un cambio de estrategia hacia el uso de una mayor protección de patentes para sus innovaciones. Del mismo modo, puede haber más oportunidades para identificar y proteger las innovaciones asociadas a la creación de gobernanza en torno a estos modelos.
Además de utilizar la protección de la PI como respaldo para una mayor divulgación, las empresas también pueden considerar la introducción de más controles operativos para mitigar los riesgos asociados con el uso de modelos de IA y reducir así su carga de divulgación. Por ejemplo, las empresas pueden considerar respaldar la credibilidad del modelo de IA con otras fuentes de pruebas, así como integrar una mayor participación humana y supervisión en sus procesos.
Mientras tanto, los patrocinadores que no estén seguros de cómo su uso del modelo de IA podría interactuar con los futuros requisitos de la FDA deben considerar las opciones de compromiso que la FDA ha esbozado para su contexto específico de uso.
Los comentarios sobre el proyecto de directrices pueden presentarse en línea o enviarse por correo antes del 7 de abril de 2025, y nuestro equipo está a disposición de las partes interesadas para ayudarles en la redacción.
Foley está aquí para ayudarle a abordar las repercusiones a corto y largo plazo de los cambios normativos. Disponemos de los recursos necesarios para ayudarle a navegar por estas y otras importantes consideraciones legales relacionadas con las operaciones empresariales y cuestiones específicas del sector. Póngase en contacto con los autores, con su socio de Foley, con nuestro equipo del Sector de Sanidad y Ciencias de la Vidao a nuestro Sector de Tecnología Innovadora si tiene alguna pregunta.