A medida que crece la preocupación por la inteligencia artificial (IA) en todo el mundo, la Unión Europea (UE) está proporcionando una hoja de ruta normativa para la comunidad internacional. El 11 de mayo de 2023, la Comisión de Libertades Civiles, Justicia y Asuntos de Interior y la Comisión de Mercado Interior y Protección del Consumidor del Parlamento Europeo votaron a favor de aprobar la Ley de Inteligencia Artificial. Tal y como está redactada, la ley representa una primicia mundial en el enfoque de la gestión del riesgo legal de la IA que Estados Unidos y otras naciones seguramente tendrán en cuenta a medida que la IA experimente una rápida evolución. La ley marca la pauta para la inevitable alineación entre los Estados Unidos y la UE, ya que el deseo de colaboración transatlántica, supervisión regulatoria, normas industriales adecuadas y facilitación de las asociaciones económicas sigue siendo una prioridad. Aunque la Ley de IA ha sido aprobada por los legisladores del Parlamento Europeo, la legislación aún debe pasar por pasos adicionales antes de convertirse en ley.
Principios fundamentales de la Ley de IA de la UE
Con las capacidades cada vez mayores de la IA en la composición musical, la creación literaria y la prestación de servicios sanitarios, la ley propuesta establece principios fundamentales para garantizar la supervisión humana, la seguridad, la transparencia, la trazabilidad, la no discriminación y el respeto al medio ambiente en los sistemas de IA. Su objetivo es establecer una definición universal de IA que sea tecnológicamente neutra y se adapte tanto a los sistemas de IA existentes como a los futuros. Cabe destacar que la ley propone un enfoque basado en el riesgo para la regulación de la IA, en el que las obligaciones de un sistema de IA se correlacionan con el nivel de riesgo que puede suponer. La ley incluye disposiciones que eximen las actividades de investigación y los componentes de IA ofrecidos bajo licencias de código abierto. La legislación también aboga por la creación de entornos de pruebas regulados, es decir, entornos controlados establecidos por las autoridades públicas, para probar la IA antes de su implementación. Este enfoque tiene por objeto equilibrar la protección de los derechos fundamentales con la necesidad de seguridad jurídica en las empresas y el estímulo de la innovación en Europa.
Enfoques actuales y tendencias en Estados Unidos
Por el contrario, los legisladores federales de EE. UU. siguen vigilando de cerca la IA, centrando más su atención en financiar la investigación para descifrar sus capacidades y resultados. Estos esfuerzos se ven impulsados en parte por la esperanza de comprender el alcance de la IA para mitigar potencialmente las preocupaciones en el ámbito normativo. Después de todo, los avances de la tecnología de IA pueden servir como herramientas de mitigación de algunos de los riesgos identificados a través de los principios clave de la ley. El concepto de federalismo en los Estados Unidos contribuye a un dilema ya de por sí oneroso en cuanto a la aplicación de la normativa, debido a un sistema fragmentado de leyes estatales incoherentes que esperan estar a la vanguardia de la próxima gran revolución tecnológica. De hecho, varios estados ya han propuesto leyes que regulan el desarrollo y el uso de la IA. Por ejemplo, California ha propuesto una ley (AB 331) que regula el uso de herramientas de decisión automatizadas (incluida la IA) y que obligaría a los desarrolladores de estas herramientas de IA y a los usuarios a presentar evaluaciones de impacto anuales.
Principios fundamentales de la Ley de IA de la UE
Cuatro niveles de riesgo
Las aplicaciones de IA se clasifican en cuatro niveles de riesgo: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo o nulo.Cualquier aplicación que presente un riesgo inaceptable está prohibida por defecto y no puede implementarse en la UE. Esto incluye los sistemas de IA que emplean técnicas subliminales o tácticas manipuladoras para alterar el comportamiento, explotar las vulnerabilidades de individuos o grupos, categorizar datos biométricos basados en atributos sensibles, evaluar la puntuación social o la fiabilidad, predecir delitos penales o administrativos, crear o ampliar bases de datos de reconocimiento facial mediante el rastreo indiscriminado, o inferir emociones en la aplicación de la ley, la gestión de fronteras, los lugares de trabajo y la educación. Por el contrario, los usos de riesgo mínimo incluirían los sistemas implementados para la gestión de productos o inventarios o las plataformas habilitadas para la IA, como los videojuegos. Del mismo modo, los sistemas de riesgo limitado incluirían los chatbots u otros sistemas basados en la IA que cumplan las normas de divulgación necesarias para ofrecer a los usuarios la opción de hablar con un humano.
Usos de alto riesgo
La Ley de IA identifica los siguientes usos como de alto riesgo:
- Identificación biométrica y categorización de personas físicas: sistemas de IA destinados a ser utilizados para la identificación biométrica remota «en tiempo real» y «posterior» de personas físicas.
- Gestión y funcionamiento de infraestructuras críticas: sistemas de IA destinados a utilizarse como componentes de seguridad en la gestión y el funcionamiento del tráfico rodado y el suministro de agua, gas, calefacción y electricidad.
- Educación y formación profesional:sistemas de IA destinados a determinar el acceso o la asignación de personas físicas a instituciones educativas y de formación profesional; sistemas de IA destinados a evaluar a los estudiantes en instituciones educativas y de formación profesional, así como a evaluar a los participantes en las pruebas que suelen exigirse para el acceso a las instituciones educativas.
- Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia:sistemas de IA destinados a ser utilizados para la contratación o selección de personas físicas, en particular para anunciar vacantes, seleccionar o filtrar solicitudes, o evaluar candidatos en el curso de entrevistas o pruebas; IA destinada a ser utilizada para tomar decisiones sobre la promoción y la rescisión de relaciones contractuales relacionadas con el trabajo, para la asignación de tareas y para supervisar y evaluar el rendimiento y el comportamiento de las personas en dichas relaciones.
- Acceso y disfrute de servicios privados y públicos esenciales y prestaciones:sistemas de IA destinados a ser utilizados por las autoridades públicas o en nombre de estas para evaluar la elegibilidad de las personas físicas para recibir prestaciones y servicios de asistencia pública, así como para conceder, reducir, revocar o reclamar dichas prestaciones y servicios; Sistemas de IA destinados a evaluar la solvencia de las personas físicas o a establecer su puntuación crediticia, con excepción de los sistemas de IA puestos en servicio por pequeños proveedores para su propio uso; Sistemas de IA destinados a enviar o establecer prioridades en el envío de servicios de primera respuesta en casos de emergencia, incluidos los bomberos y la asistencia médica.
- Aplicación de la ley:sistemas de IA destinados a ser utilizados por las autoridades policiales y judiciales con diversos fines, entre ellos la realización de evaluaciones de riesgo individuales, la detección de falsificaciones profundas, la evaluación de la fiabilidad de las pruebas, la predicción de la comisión o reincidencia de un delito real o potencial, la elaboración de perfiles de personas físicas y la realización de análisis de delitos.
- Gestión de la migración, el asilo y el control fronterizo:sistemas de IA destinados a ser utilizados por las autoridades públicas competentes con diversos fines, como detectar el estado emocional de una persona física, evaluar riesgos, verificar la autenticidad de los documentos de viaje y ayudar en el examen de las solicitudes de asilo, visados y permisos de residencia.
- Administración de justicia y procesos democráticos:sistemas de IA destinados a ayudar a las autoridades judiciales a investigar e interpretar los hechos y la ley, y a aplicar la ley a un conjunto concreto de hechos.
Prohibiciones sobre la «calificación social»
En el contexto de la Ley de IA, la «puntuación social» se refiere a la práctica de evaluar a las personas en función de su comportamiento social o sus características de personalidad, a menudo aprovechando una amplia gama de fuentes de información. Este enfoque se utiliza para evaluar, categorizar y puntuar a las personas, lo que puede afectar a diversos aspectos de su vida, como el acceso a préstamos, hipotecas y otros servicios. El borrador actual incluye la prohibición de la puntuación social por parte de las autoridades públicas en Europa. Sin embargo, el Comité Económico y Social Europeo (CESE) ha expresado su preocupación por el hecho de que esta prohibición no se extienda a las organizaciones privadas y semipúblicas, lo que podría permitir a dichas entidades utilizar prácticas de puntuación social. El CESE ha pedido la prohibición total de la puntuación social en la UE y el establecimiento de un mecanismo de reclamación y reparación para las personas que hayan sufrido daños por culpa de un sistema de IA.
Líneas difusas: puntuación social ilegal frente a análisis de datos adecuado
El CESE también ha instado a que la Ley de IA se esfuerce por distinguir entre lo que se considera puntuación social y lo que puede considerarse una forma aceptable de evaluación para un fin específico. Sugieren que la línea divisoria puede trazarse cuando la información utilizada para la evaluación no es razonablemente relevante o proporcionada. Además, el CESE destaca la necesidad de que la IA mejore la toma de decisiones y la inteligencia humanas, en lugar de sustituirlas, y critica la Ley de IA por no expresar explícitamente este punto de vista.
Fundación Modelos de lenguaje grandes
Un aspecto significativo de la ley se refiere a la regulación de los «modelos básicos», como el GPT de OpenAI o el Bard de Google. Estos modelos han atraído la atención de los reguladores debido a sus avanzadas capacidades y al potencial desplazamiento de trabajadores cualificados. Los proveedores de estos modelos básicos están obligados a aplicar controles de seguridad, medidas de gobernanza de datos y mitigación de riesgos antes de hacer públicos sus modelos. Además, deben garantizar que los datos de entrenamiento utilizados para informar a sus sistemas no violen la ley de derechos de autor. Los proveedores de estos modelos de IA también estarían obligados a evaluar y mitigar los riesgos para los derechos fundamentales, la salud y la seguridad, el medio ambiente, la democracia y el estado de derecho.
Impacto en las empresas estadounidenses
Estados Unidos puede esperar que algunos de los principios de la ley aparezcan en propuestas legislativas tanto federales como estatales, ya que la nación busca controlar el caos provocado por la IA. Como resultado de las asociaciones transatlánticas de larga data basadas en el establecimiento del comercio y los intercambios, muchas empresas estadounidenses están muy familiarizadas con los estándares más elevados de la UE en áreas como las normas de seguridad de los productos y ciertos derechos sobre los datos. Por lo tanto, cabe esperar que esta tendencia continúe a medida que crezca el comercio entre naciones. Es probable que la UE siga exigiendo el cumplimiento de las empresas estadounidenses para poder realizar negocios al otro lado del Atlántico, y cabe esperar que el alcance de dicho cumplimiento incluya ahora la IA. Si bien hay innumerables formas de manifestar estos conceptos, como la Carta de Derechos de la IA del presidente Biden, al reflejar determinadas disposiciones de la ley, los estados pueden verse animados a desarrollar sus propios planes normativos en torno al uso de la IA. Las empresas deberán permanecer atentas a los cambios en las estructuras normativas y los nuevos mecanismos de aplicación en Estados Unidos, mientras el país se enfrenta a los cambios. El objetivo final de la propuesta de la UE es proporcionar un marco normativo para las empresas de IA y las organizaciones que utilizan IA, facilitando así el equilibrio entre la innovación y la protección de los derechos de los ciudadanos.