Le 20 janvier 2025, le président Donald Trump a signé un décret annulant la directive de 2023 émise par l'ancien président Joe Biden sur l'intelligence artificielle (IA). Le décret de Joe Biden énonçait des mesures détaillées visant à orienter le développement et l'utilisation des technologies d'IA, notamment la mise en place de responsables de l'IA dans les principales agences fédérales et de cadres permettant de faire face aux risques éthiques et de sécurité. Cette révocation marque un changement majeur de politique, en s'éloignant de la surveillance fédérale mise en place par l'administration précédente.
La décision de révoquer le décret de M. Biden a créé un climat d'incertitude réglementaire pour les entreprises opérant dans des domaines liés à l'IA. En l'absence d'un cadre fédéral unifié, les entreprises pourraient être confrontées à divers défis, tels qu'un paysage réglementaire incohérent du fait de l'intervention des États et des organisations internationales, des risques accrus liés à l'éthique de l'IA et à la confidentialité des données, et une concurrence déloyale entre les entreprises qui mettent en œuvre des normes différentes pour le développement et le déploiement de l'IA.
Regarder vers l'avenir
À la lumière de ce changement, les entreprises sont encouragées à adopter des mesures proactives pour naviguer dans un environnement en constante évolution. Pour maintenir la confiance et la responsabilité, il est essentiel de renforcer la gouvernance interne en créant ou en améliorant les lignes directrices éthiques concernant l'utilisation de l'IA. Les organisations devraient également investir dans la conformité en surveillant les réglementations nationales, internationales et sectorielles afin de s'aligner sur les nouvelles normes telles que la loi sur l'intelligence artificielle du Colorado et la loi sur l'IA de l'UE.
En outre, il est essentiel de se tenir informé des éventuels changements de politique fédérale et des efforts législatifs, car de nouvelles annonces pourraient signaler de nouvelles orientations en matière de gouvernance de l'IA. La collaboration avec des groupes industriels et des organismes de normalisation peut contribuer à l'élaboration de lignes directrices volontaires et de bonnes pratiques, tandis que de solides cadres de gestion des risques seront essentiels pour atténuer les problèmes tels que les préjugés, les menaces de cybersécurité et les préoccupations en matière de responsabilité.
Pour naviguer dans ce paysage en évolution, les organisations devraient envisager de prendre dès maintenant les mesures suivantes :
- Renforcer la gouvernance interne: Élaborer ou améliorer les politiques internes en matière d'IA et les lignes directrices en matière d'éthique afin de promouvoir une utilisation de l'IA responsable et conforme à la législation, même en l'absence de mandats fédéraux.
- Investissez dans la conformité: Tenez-vous au courant des réglementations nationales, internationales et sectorielles en matière d'IA susceptibles d'avoir un impact sur les activités de l'entreprise. Alignez de manière proactive vos pratiques sur les normes émergentes, telles que la loi sur l'intelligence artificielle du Colorado et la loi sur l'IA de l'Union européenne.
- Suivre l'évolution de la situation au niveau fédéral: Gardez un œil sur les nouvelles annonces ou actions législatives du Congrès et des agences fédérales qui pourraient indiquer de nouvelles orientations en matière de politique et de réglementation de l'IA.
- S'engager dans la collaboration avec l'industrie: Collaborer avec les groupes industriels et les organismes de normalisation pour contribuer à influencer les normes volontaires et les meilleures pratiques en matière d'IA.
- Mettre l'accent sur la gestion des risques: Établir de solides cadres d'évaluation des risques pour identifier et traiter les risques potentiels liés à l'IA, y compris les biais, les menaces de cybersécurité, la conformité juridique et les préoccupations en matière de responsabilité.
La décision du président Trump reflète une préférence pour moins de réglementation, augmentant la responsabilité du secteur privé pour garantir une utilisation éthique et sûre de l'IA. Les entreprises doivent naviguer dans un paysage réglementaire incertain tout en innovant de manière responsable. À mesure que les circonstances changent, les entreprises doivent rester vigilantes et flexibles pour préserver leur avantage concurrentiel et la confiance du public.