Nuevas regulaciones sobre inteligencia artificial (IA) y posibles implicaciones fiduciarias
Los fiduciarios deben estar al tanto de los últimos avances relacionados con la IA, incluidos los cambios legislativos estatales recientes y emergentes, el creciente interés de los gobiernos estatales y federales por regular la IA y el papel de la IA en los litigios relacionados con la ley ERISA. Aunque se ha prestado mucha atención al impacto de la IA en los planes de jubilación, que ya hemos comentado aquí anteriormente, los fiduciarios de todo tipo de planes, incluidos los planes de prestaciones sanitarias y sociales, también deben mantenerse informados sobre los últimos avances en materia de IA.
Cambios recientes en la legislación estatal
Recientemente, numerosos estados han codificado nuevas leyes centradas en la IA, algunas de las cuales regulan los procesos de toma de decisiones de los empleadores en materia de recursos humanos. Entre los ejemplos más destacados se incluyen:
- California – En 2024, California promulgó más de 10 leyes relacionadas con la IA, que abordaban temas como:
- El uso de IA con conjuntos de datos que contengan nombres, direcciones o datos biométricos.
- Cómo comunicar información sanitaria a los pacientes utilizando la IA; y
- Toma de decisiones basada en la inteligencia artificial en tratamientos médicos y autorizaciones previas.
Para obtener más información sobre las nuevas leyes de California en materia de inteligencia artificial, consulte la alerta para clientes de Foley, «Descifrando la reciente avalancha de leyes sobre inteligencia artificial en California».
- Illinois: Illinois aprobó una ley que prohíbe a los empleadores utilizar la IA en actividades laborales de forma que provoque efectos discriminatorios, independientemente de la intención. Según la ley, los empleadores están obligados a notificar a los empleados y solicitantes si van a utilizar la IA para cualquier fin relacionado con el lugar de trabajo.
Para obtener más información sobre la nueva ley de IA de Illinois, consulte la alerta para clientes de Foley, Illinois promulga una ley para proteger contra las implicaciones discriminatorias de la IA en las actividades laborales.
- Colorado: la Ley de Inteligencia Artificial de Colorado (CAIA), que entrará en vigor el 1 de febrero de 2026, exige un «cuidado razonable» cuando los empleadores utilicen la IA para determinadas aplicaciones.
Para obtener más información sobre la nueva ley de IA de Colorado, consulte la alerta para clientes de Foley, Regulación de la inteligencia artificial en la toma de decisiones laborales: qué nos depara el futuro para 2025.
Aunque estas leyes no se centran específicamente en los planes de prestaciones para empleados, reflejan una tendencia hacia la regulación general de las prácticas de recursos humanos por parte de los estados, tienen como objetivo regular los procesos de toma de decisiones en materia de recursos humanos y forman parte de un entorno normativo en constante evolución. En 2024 se propusieron cientos de proyectos de ley estatales adicionales, junto con órdenes ejecutivas relacionadas con la inteligencia artificial, lo que indica que en 2025 habrá más regulaciones. Quedan preguntas sobre cómo estas leyes se cruzan con los planes de prestaciones para empleados y si la prevalencia federal de la ley ERISA podría aplicarse a los intentos de regulación de los estados.
Medidas recientes del Gobierno federal
El gobierno federal publicó recientemente unas directrices destinadas a prevenir la discriminación en la prestación de determinados servicios sanitarios y completó una solicitud de información (RFI) sobre posibles regulaciones en materia de inteligencia artificial que afectan al sector de los servicios financieros.
- Guía sobre no discriminación en el uso de la inteligencia artificial del Departamento de Salud y Servicios Humanos (HHS) de EE. UU.: el HHS, a través de su Oficina de Derechos Civiles (OCR), ha publicado recientemente una carta titulada «Queridos colegas: Garantizar la no discriminación mediante el uso de la inteligencia artificial y otras tecnologías emergentes». Esta guía hace hincapié en la importancia de garantizar que el uso de la IA y otras herramientas de apoyo a la toma de decisiones en la atención sanitaria cumpla con las leyes federales contra la discriminación, en particular con la sección 1557 de la Ley de Asistencia Asequible (sección 1557).
La sección 1557 prohíbe la discriminación por motivos de raza, color, nacionalidad, sexo, edad o discapacidad en los programas y actividades de salud que reciben ayuda financiera federal. Las directrices de la OCR subrayan que los proveedores de atención médica, los planes de salud y otras entidades cubiertas no pueden utilizar herramientas de IA de forma que tengan un impacto discriminatorio en los pacientes. Esto incluye las decisiones relacionadas con el diagnóstico, el tratamiento y la asignación de recursos. Los empleadores y los patrocinadores de planes deben tener en cuenta que esta guía se aplica a un subconjunto de planes de salud, incluidos los que entran en el ámbito de aplicación de la sección 1557, pero no a todos los planes de salud patrocinados por empleadores.
- El Tesoro emite una solicitud de información sobre la regulación de la IA: en 2024, el Departamento del Tesoro de los Estados Unidos publicó una solicitud de información sobre los usos, oportunidades y riesgos de la inteligencia artificial en el sector de los servicios financieros. La solicitud incluía varias consideraciones clave, entre ellas el tratamiento de los sesgos y la discriminación de la IA, la protección de los consumidores y la privacidad de los datos, y los riesgos para los usuarios externos de la IA. Aunque la solicitud de información aún no ha dado lugar a regulaciones concretas, subraya la atención que presta el Gobierno federal al impacto de la IA en los servicios financieros y de prestaciones para empleados. El Comité Industrial ERISA, una asociación sin ánimo de lucro que representa a grandes empresas estadounidenses en su calidad de patrocinadores de planes de prestaciones para empleados, comentó que la IA ya se está utilizando para aplicaciones de preparación para la jubilación, chatbots, gestión de carteras, ejecución de operaciones y programas de bienestar. Las futuras regulaciones pueden centrarse en estas y otras áreas relacionadas.
Litigios relacionados con la ley ERISA impulsados por la inteligencia artificial
Las posibles reclamaciones en virtud de la ley ERISA contra los patrocinadores y fiduciarios de planes se están identificando mediante IA. Por citar solo un ejemplo, una plataforma de IA, Darrow AI, afirma ser:
«Diseñado para simplificar el análisis de grandes volúmenes de datos procedentes de documentos de planes, presentaciones reglamentarias y casos judiciales. Nuestra tecnología detecta con precisión discrepancias, incumplimientos del deber fiduciario y otras violaciones de la ley ERISA. El uso de nuestros análisis avanzados le permite identificar rápidamente posibles reclamaciones, evaluar su impacto financiero y construir casos sólidos... podrá defender eficazmente a los empleados que buscan justicia en relación con sus prestaciones de jubilación y salud».
Además, esta plataforma de IA afirma que puede detectar infracciones que afectan a muchos tipos de empleadores, ya sean pequeñas empresas o grandes corporaciones, mediante el análisis de diversas fuentes de datos, incluyendo noticias, documentos presentados ante la SEC, redes sociales, artículos académicos y otras fuentes de terceros.
Cabe destacar que los planes de prestaciones sanitarias y sociales también están emergiendo como áreas de interés para los litigios relacionados con la ley ERISA impulsados por la IA. Las herramientas de IA se utilizan para analizar datos de reclamaciones, redes de proveedores y decisiones administrativas, lo que permite identificar posibles prácticas discriminatorias o incoherencias en la determinación de las prestaciones. Por ejemplo, la IA podría poner de relieve patrones de sesgo en las autorizaciones previas o discrepancias en la aplicación de las leyes de paridad en materia de salud mental.
La creciente sofisticación de estas herramientas aumenta el riesgo para los fiduciarios, ya que ahora deben considerar la posibilidad de que los posibles demandantes utilicen la IA para examinar sus decisiones y planificar operaciones con una precisión sin precedentes.
Próximos pasos para los fiduciarios
Para navegar por este panorama en constante evolución, los fiduciarios deben tomar medidas proactivas para gestionar los riesgos relacionados con la IA, al tiempo que aprovechan las ventajas de estas tecnologías:
- Evaluar las herramientas de IA: Realizar una evaluación formal de las herramientas de inteligencia artificial utilizadas para la administración de planes, la participación de los participantes y el cumplimiento normativo. Esta evaluación incluye un examen de los algoritmos, las fuentes de datos y los procesos de toma de decisiones involucrados, incluida una evaluación para garantizar que sus productos hayan sido evaluados en cuanto al cumplimiento de las normas de no discriminación y que no produzcan inadvertidamente resultados sesgados.
- Proveedores de servicios de auditoría: Realizar auditorías exhaustivas de los proveedores de servicios del plan para evaluar su uso de la IA. Solicitar información detallada sobre los sistemas de IA en funcionamiento, centrándose en cómo mitigan los sesgos, garantizan la seguridad de los datos y cumplen con la normativa aplicable.
- Revisar y actualizar las políticas: Formular o revisar las políticas internas y los marcos de gobernanza para supervisar la utilización de la IA en la planificación operativa y el cumplimiento de las leyes contra la discriminación. Estas políticas deben esbozar las directrices relativas a la adopción, la supervisión y el cumplimiento de las tecnologías de IA, garantizando así la alineación con las responsabilidades fiduciarias.
- Mejorar la mitigación de riesgos:
- Seguro de responsabilidad fiduciaria: Considere la posibilidad de contratar o mejorar un seguro de responsabilidad fiduciaria para hacer frente a posibles reclamaciones derivadas del uso de la IA.
- Privacidad y seguridad de los datos: Mejorar las medidas de privacidad y seguridad de los datos para proteger la información confidencial de los participantes procesada por herramientas de IA.
- Mitigación de sesgos: Establecer procedimientos para probar y validar periódicamente las herramientas de IA en busca de sesgos, garantizando el cumplimiento de las leyes contra la discriminación.
- Incorporar consideraciones sobre IA en las solicitudes de propuestas (RFP): Al seleccionar proveedores, incluir criterios específicos relacionados con la IA en las RFP. Esto puede requerir que los proveedores demuestren o certifiquen el cumplimiento de las regulaciones estatales y federales y se adhieran a las mejores prácticas de la industria para el uso de la IA.
- Supervisar los avances legales y normativos: Manténgase informado sobre las nuevas normativas estatales y federales en materia de IA, así como sobre la jurisprudencia en desarrollo relacionada con la IA y los litigios relacionados con la ley ERISA. Establezca un proceso de revisiones legales rutinarias para evaluar cómo estos avances afectan al funcionamiento de los planes.
- Impartir formación: Formar a los fiduciarios, administradores y personal pertinente sobre los posibles riesgos y beneficios de la IA en la administración de planes, las tecnologías emergentes y la importancia del cumplimiento de la legislación aplicable. La formación debe ofrecer una visión general de las obligaciones legales, las mejores prácticas para la implementación de la IA y las estrategias para mitigar los riesgos.
- Diligencia debida en materia de documentación: Mantenga una documentación exhaustiva de todos los pasos para evaluar y realizar un seguimiento de las herramientas de IA. Esto incluye registros de auditorías, comunicaciones con proveedores y actualizaciones de políticas internas. Una documentación clara puede servir como defensa crucial en caso de litigio.
- Evalúe la aplicabilidad de la Sección 1557 a su plan: Los fiduciarios de planes de salud y bienestar deben determinar si el plan de salud de su organización está sujeto a la Sección 1557 y si las directrices de la OCR se aplican directamente a sus operaciones y, en caso contrario, confirmar y documentar por qué no.
Los fiduciarios deben permanecer alerta ante el papel cada vez más importante que desempeña la IA en los planes de prestaciones para empleados, especialmente en un contexto de incertidumbre normativa. Tomar medidas proactivas y adoptar estrategias sólidas de gestión de riesgos puede ayudar a mitigar los riesgos y garantizar el cumplimiento de las normas legales actuales y previstas. Al dedicarse a la diligencia y la transparencia, los fiduciarios pueden aprovechar las ventajas de la IA y, al mismo tiempo, salvaguardar los intereses de los participantes en los planes. En Foley & Lardner LLP, contamos con expertos en IA, planificación de la jubilación, ciberseguridad, trabajo y empleo, finanzas, tecnología financiera, asuntos normativos, atención sanitaria y ERISA. Asesoran regularmente a los fiduciarios sobre los posibles riesgos y responsabilidades relacionados con estas y otras cuestiones relacionadas con la IA.