El 20 de enero de 2025, el presidente Donald Trump firmó una orden ejecutiva que anulaba la directiva de 2023 emitida por el expresidente Joe Biden sobre inteligencia artificial (IA). La orden de Biden esbozaba amplias medidas destinadas a guiar el desarrollo y el uso de las tecnologías de IA, incluido el establecimiento de funcionarios jefes de IA en las principales agencias federales y marcos para abordar los riesgos éticos y de seguridad. Esta revocación supone un importante cambio de política, alejándose de la supervisión federal establecida por la administración anterior.
La revocación de la orden ejecutiva de Biden ha generado un clima de incertidumbre regulatoria para las empresas que operan en campos impulsados por la IA. En ausencia de un marco federal unificado, las empresas podrían enfrentarse a diversos retos, como un panorama normativo incoherente a medida que intervengan los estados y las organizaciones internacionales, mayores riesgos relacionados con la ética y la privacidad de los datos de la IA, y competencia desleal entre las empresas que apliquen normas diferentes para el desarrollo y la implantación de la IA.
De cara al futuro
A la luz de este cambio, se anima a las empresas a adoptar medidas proactivas para navegar por el entorno en evolución. Para mantener la confianza y la responsabilidad, es esencial reforzar la gobernanza interna creando o mejorando las directrices éticas relativas al uso de la IA. Las organizaciones también deben invertir en el cumplimiento de la normativa mediante la supervisión de los reglamentos estatales, internacionales y específicos de la industria para alinearse con las nuevas normas como la Ley de Inteligencia Artificial de Colorado y la Ley de Inteligencia Artificial de la UE.
Además, es crucial mantenerse informado sobre los posibles cambios en la política federal y los esfuerzos legislativos, ya que nuevos anuncios pueden señalar nuevas direcciones en la gobernanza de la IA. Colaborar con grupos del sector y organizaciones de normalización puede ayudar a dar forma a directrices voluntarias y mejores prácticas, mientras que unos marcos sólidos de gestión de riesgos serán esenciales para mitigar problemas como la parcialidad, las amenazas a la ciberseguridad y los problemas de responsabilidad.
Para navegar por este panorama cambiante, las organizaciones deberían considerar la posibilidad de tomar ahora las siguientes medidas:
- Reforzar la gobernanza interna: Desarrollar o mejorar las políticas internas de IA y las directrices éticas para promover un uso responsable y legalmente conforme de la IA, incluso en ausencia de mandatos federales.
- Invierta en cumplimiento: Manténgase al día de las normativas sobre IA estatales, internacionales y específicas del sector que podrían afectar a las operaciones. Alinee proactivamente las prácticas con las normas emergentes, como la Ley de Inteligencia Artificial de Colorado y la Ley de IA de la UE.
- Seguimiento de la evolución federal: Manténgase atento a nuevos anuncios o acciones legislativas del Congreso y de las agencias federales que puedan señalar nuevas direcciones en la política y regulación de la IA.
- Colabore con la industria: Colabore con grupos del sector y organizaciones de normalización para ayudar a influir en las normas y mejores prácticas voluntarias de la IA.
- Centrarse en la gestión de riesgos: Establecer marcos sólidos de evaluación de riesgos para identificar y abordar los posibles riesgos relacionados con la IA, incluidos los sesgos, las amenazas a la ciberseguridad, el cumplimiento legal y los problemas de responsabilidad.
La decisión del presidente Trump refleja una preferencia por una menor regulación, aumentando la responsabilidad del sector privado para garantizar un uso ético y seguro de la IA. Las empresas deben navegar por un panorama normativo incierto a la vez que innovan de forma responsable. A medida que cambian las circunstancias, las empresas deben mantenerse alerta y flexibles para mantener su ventaja competitiva y la confianza del público.