Consciente de la necesidad de regular para garantizar el uso seguro de la IA, la Unión Europea (UE) ha introducido la directriz legal más completa del mundo, la Ley de IA de la UE, diseñada para imponer requisitos estrictos a los sistemas de IA que operan dentro de su jurisdicción. Sus objetivos son claros; sin embargo, su implementación y aplicación plantean retos y el debate sobre su impacto en la innovación sigue cobrando fuerza.
La Ley de IA de la UE, que entró oficialmente en vigor en agosto de 2024, tiene por objeto regular el desarrollo y el uso de los sistemas de IA, en particular los considerados «de alto riesgo». El objetivo principal es garantizar que la IA sea segura y ética y que funcione de forma transparente dentro de unas directrices estrictas. La aplicación de la ley comenzó oficialmente el 2 de febrero de 2025, cuando expiró el plazo para las prohibiciones, por ejemplo, de determinados sistemas de IA, la garantía de conocimientos tecnológicos para el personal, etc.
El incumplimiento tiene un precio. Con el objetivo de garantizar el cumplimiento, las empresas que incumplan la normativa pueden ser multadas con entre 7,5 millones de euros (7,8 millones de dólares) y 35 millones de euros (35,8 millones de dólares) o entre el 1 % y el 7 % de sus ingresos anuales globales. Una importante medida disuasoria desde el punto de vista financiero.
El sistema de clasificación de riesgos es un aspecto fundamental de la Ley de Inteligencia Artificial (I Act). Los sistemas de IA se clasifican como «prácticas de IA prohibidas», tales como las tecnologías biométricas que clasifican a las personas en función de su raza u orientación sexual, la IA manipuladora y determinadas aplicaciones de policía predictiva, que están prohibidas. Por otra parte, los sistemas de IA de «alto riesgo» están permitidos, pero están sujetos a rigurosas medidas de cumplimiento, que incluyen evaluaciones de riesgo exhaustivas, requisitos de gobernanza de datos y obligaciones de transparencia. Los sistemas de IA con un riesgo de transparencia limitado están sujetos a las obligaciones de transparencia del artículo 50 de la Ley de IA, que exige a las empresas informar a los usuarios cuando interactúan con un sistema de IA. Por último, los sistemas de IA que presentan un riesgo mínimo o nulo no están regulados.
La Ley de IA de la UE no está exenta de voces contrarias. Otros países y grandes empresas tecnológicas se oponen a su aplicación. Las empresas tecnológicas, por ejemplo, argumentan que unas regulaciones estrictas frenarán la innovación, lo que a su vez dificultará la competitividad de las startups europeas a nivel mundial. Los críticos también argumentan que, al imponer pesadas cargas de cumplimiento, la ley podría empujar el desarrollo de la IA fuera de Europa hacia regiones menos reguladas, lo que obstaculizaría la competitividad tecnológica del continente.
Sintiendo cierta presión generalizada, la UE ha dado marcha atrás en algunas de sus ambiciones reguladoras iniciales, como la derogación de la propuesta de Directiva sobre responsabilidad en materia de IA, que habría facilitado a los consumidores la posibilidad de demandar a los proveedores de IA. La UE debe actuar con cautela a la hora de proteger los derechos de los ciudadanos y, al mismo tiempo, fomentar un entorno que impulse el avance tecnológico.
Un paso en la dirección correcta
Aún está por ver si la Ley de IA de la UE servirá de modelo para otros países. En resumen, habrá muchos problemas iniciales y la UE debe esperar tener que revisar la legislación, pero, en general, es bueno tener un punto de partida desde el que criticar y revisar. El marco actual puede no ser perfecto, pero es un punto de partida necesario para el debate global sobre la regulación de la IA.