Consciente de la nécessité d'une réglementation pour garantir une utilisation sûre de l'IA, l'Union européenne (UE) a introduit la directive juridique la plus complète au monde, l'EU AI Act, conçue pour imposer des exigences strictes aux systèmes d'IA opérant sur son territoire. Ses objectifs sont clairs, mais sa mise en œuvre et son application posent des défis et le débat autour de son impact sur l'innovation continue de s'intensifier.
La loi européenne sur l'IA, qui est officiellement entrée en vigueur en août 2024, vise à réglementer le développement et l'utilisation des systèmes d'IA, en particulier ceux considérés comme « à haut risque ». L'objectif principal est de garantir que l'IA soit sûre et éthique et qu'elle fonctionne de manière transparente dans le cadre de directives strictes. L'application de la loi a officiellement débuté le 2 février 2025, date à laquelle les interdictions, par exemple concernant certains systèmes d'IA, la formation du personnel aux technologies, etc.
Le non-respect de la réglementation a un coût. Afin de garantir la conformité, les entreprises reconnues coupables d'avoir enfreint l'peuvent se voir infliger une amende comprise entre 7,5 millions d'euros (7,8 millions de dollars) et 35 millions d'euros (35,8 millions de dollars), soit 1 % à 7 % de leur chiffre d'affaires annuel mondial. Une sanction financière dissuasive.
Le système de classification des risques est un aspect essentiel de la loi AI Act. Les systèmes d'IA sont classés dans la catégorie des « pratiques d'IA interdites », telles que les technologies biométriques qui classifient les individus en fonction de leur race ou de leur orientation sexuelle, l'IA manipulatrice et certaines applications de police prédictive, qui sont interdites. Par ailleurs, les systèmes d'IA « à haut risque » sont autorisés, mais soumis à des mesures de conformité rigoureuses, notamment des évaluations complètes des risques, des exigences en matière de gouvernance des données et des obligations de transparence. Les systèmes d'IA présentant un risque limité en matière de transparence sont soumis aux obligations de transparence prévues à l'article 50 de la loi sur l'IA, qui impose aux entreprises d'informer les utilisateurs lorsqu'ils interagissent avec un système d'IA. Enfin, les systèmes d'IA présentant un risque minime ou nul ne sont pas réglementés.
La loi européenne sur l'IA ne fait pas l'unanimité. D'autres pays et de grandes entreprises technologiques s'opposent à sa mise en œuvre. Les entreprises technologiques, par exemple, affirment que des réglementations strictes freineront l'innovation, ce qui rendra plus difficile pour les start-ups européennes d'être compétitives à l'échelle mondiale. Les détracteurs affirment également qu'en imposant de lourdes contraintes de conformité, la loi pourrait pousser le développement de l'IA hors d'Europe vers des régions moins réglementées, nuisant ainsi à la compétitivité technologique du continent.
Sous la pression générale, l'UE a revu à la baisse certaines de ses ambitions réglementaires initiales, comme l'abrogation de la proposition de directive européenne sur la responsabilité en matière d'IA, qui aurait permis aux consommateurs de poursuivre plus facilement les fournisseurs d'IA en justice. L'UE doit trouver le juste équilibre entre la protection des droits des citoyens et la création d'un environnement propice au progrès technologique.
Un pas dans la bonne direction
Il reste à voir si la loi européenne sur l'IA servira de modèle à d'autres pays. En résumé, il y aura beaucoup de difficultés à surmonter et l'UE doit s'attendre à devoir réviser la législation, mais dans l'ensemble, il est bon d'avoir un point de départ à partir duquel critiquer et réviser. Le cadre actuel n'est peut-être pas parfait, mais il constitue un point de départ nécessaire pour le débat mondial sur la réglementation de l'IA.