Em 20 de janeiro de 2025, o Presidente Donald Trump assinou uma ordem executiva que revogava a diretiva de 2023 emitida pelo antigo Presidente Joe Biden sobre inteligência artificial (IA). A ordem de Biden delineou medidas extensas destinadas a orientar o desenvolvimento e o uso de tecnologias de IA, incluindo o estabelecimento de diretores de IA nas principais agências federais e estruturas para lidar com riscos éticos e de segurança. Esta revogação assinala uma importante mudança de política, afastando-se da supervisão federal instituída pela anterior administração.
A decisão de revogar a ordem executiva de Biden conduziu a um clima de incerteza regulamentar para as empresas que operam em domínios orientados para a IA. Na ausência de uma estrutura federal unificada, as empresas podem encontrar vários desafios, como um cenário regulatório inconsistente à medida que estados e organizações internacionais intervêm, maiores riscos relacionados à ética da IA e à privacidade de dados e concorrência desleal entre empresas que implementam padrões diferentes para o desenvolvimento e implantação de IA.
Olhando para o futuro
À luz desta mudança, as empresas são encorajadas a adotar medidas proactivas para navegar no ambiente em evolução. Para manter a confiança e a responsabilidade, é essencial reforçar a governação interna, criando ou melhorando as diretrizes éticas relativas à utilização da IA. As organizações também devem investir na conformidade, monitorizando os regulamentos estatais, internacionais e específicos do sector para se alinharem com novas normas, como a Lei da Inteligência Artificial do Colorado e a Lei da IA da UE.
Além disso, manter-se informado sobre possíveis mudanças na política federal e esforços legislativos é crucial, pois novos anúncios podem sinalizar novas direções na governança da IA. A colaboração com grupos da indústria e organizações de padrões pode ajudar a moldar diretrizes voluntárias e práticas recomendadas, enquanto estruturas robustas de gerenciamento de riscos serão essenciais para mitigar questões como preconceito, ameaças à segurança cibernética e preocupações com responsabilidade.
Para navegar neste cenário em evolução, as organizações devem considerar tomar as seguintes medidas agora:
- Reforçar a governação interna: Desenvolver ou melhorar as políticas internas de IA e as diretrizes éticas para promover a utilização responsável e em conformidade com a lei da IA, mesmo na ausência de mandatos federais.
- Investir em conformidade: Mantenha-se atualizado sobre os regulamentos de IA estatais, internacionais e específicos do sector que possam ter impacto nas operações. Alinhe proactivamente as práticas com as normas emergentes, como a Lei de Inteligência Artificial do Colorado e a Lei de IA da UE.
- Monitorizar os desenvolvimentos federais: Esteja atento a novos anúncios ou acções legislativas do Congresso e das agências federais que possam indicar novas direcções na política e regulamentação da IA.
- Envolver-se na colaboração da indústria: Colaborar com grupos da indústria e organizações de normas para ajudar a influenciar as normas e melhores práticas voluntárias de IA.
- Foco na gestão de riscos: Estabelecer estruturas sólidas de avaliação de riscos para identificar e abordar potenciais riscos relacionados com a IA, incluindo preconceitos, ameaças à cibersegurança, conformidade legal e preocupações com a responsabilidade.
A decisão do Presidente Trump reflecte uma preferência por menos regulamentação, aumentando a responsabilidade do sector privado para garantir uma utilização ética e segura da IA. As empresas precisam de navegar num cenário regulamentar incerto enquanto inovam de forma responsável. À medida que as circunstâncias mudam, as empresas devem permanecer alertas e flexíveis para manter a sua vantagem competitiva e a confiança do público.