California Dreamin’: A SB-1047 irá travar a inovação em IA?
O governador da Califórnia, Gavin Newsom, vetou a SB-1047 em 29 de setembro de 2024, destacando preocupações sobre quais modelos eram abrangidos pela legislação.
Em 2 de julho de 2024, o Comité Judiciário da Assembleia Estadual da Califórnia aprovou a SB-1047 (Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira), após a sua aprovação pelo Senado em 21 de maio de 2024. O projeto de lei visa reduzir o risco de novas ameaças à segurança pública que estão além do nosso panorama atual de inteligência artificial (IA) e segue os passos do SB205 do Colorado (Proteções ao Consumidor para Interações com Inteligência Artificial), amplamente considerado a primeira legislação abrangente sobre IA nos Estados Unidos.
Mesmo que a SB1047 não seja aprovada como lei na Califórnia, ela ainda assim poderá servir de modelo para outras legislaturas preocupadas com os consumidores que estejam a considerar a regulamentação. Vamos examinar os detalhes mais a fundo:
Âmbito de aplicação
Ao contrário do projeto de lei do Colorado, que regula os modelos com base no setor de negócios ou na aplicação, este projeto de lei abrange exclusivamente os modelos de IA com base na complexidade. Em vez de se aplicar amplamente aos desenvolvedores de IA, ele se concentra especificamente nos desenvolvedores (ou seja, empresas) que treinam ou fornecem «modelos abrangidos» ou «derivados de modelos abrangidos» na Califórnia.
Modelos abrangidos
O projeto de lei, conforme alterado em 3 de julho, define “modelo abrangido” como um modelo de IA “treinado usando uma quantidade de poder computacional superior a 10^26 operações inteiras ou de ponto flutuante (FLOPs), cujo custo excede cem milhões de dólares (US$ 100.000.000)”. Este limite reflete o estabelecido pelo presidente Biden na sua Ordem Executiva sobre o Desenvolvimento e Utilização Seguros, Protegidos e Confiáveis da Inteligência Artificial. De acordo com a ordem, todos os modelos treinados usando uma quantidade de poder computacional superior a 10^26 FLOPs estão sujeitos à regulamentação e devem reportar-se ao Secretário do Comércio.
Esses dois números representam atualmente um limiar semelhante, já que US$ 100 milhões é o custo aproximado do treinamento de um modelo com 10^26 FLOPs. Avaliar a quantidade de poder computacional fornece insights sobre a eficiência com que um computador pode lidar com tarefas complexas e em grande escala. No campo da IA, um alto poder computacional é essencial para o treinamento de modelos sofisticados de IA, especialmente aqueles que envolvem algoritmos de aprendizagem profunda.
No momento da redação deste artigo, nenhum modelo existente se enquadra no escopo da capacidade computacional previsto no projeto de lei. A maior capacidade computacional utilizada em um treinamento é para o Gemini Ultra, estimada em 5*10^25 FLOPs, tornando-o o modelo mais intensivo em computação até o momento. No entanto, com o rápido avanço da IA, podemos esperar que os modelos ultrapassem o limite de 10^26 FLOPs dentro de um ano.
A maioria das disposições do projeto de lei também se estende aos «derivados de modelos cobertos», que o projeto de lei, conforme alterado, define como cópias não modificadas de um modelo coberto, cópias de um modelo coberto que recebem pós-treinamento modificado, exceto ajustes finos, e cópias de modelos cobertos que foram ajustados usando menos de três vezes 10^25 FLOPs de poder de computação.
Restrições para desenvolvedores
Conforme alterado, os desenvolvedores não podem usar um modelo coberto comercialmente ou publicamente se houver um risco irracional de que o modelo possa causar ou possibilitar um dano crítico. Da mesma forma, disponibilizar um modelo coberto ou um derivado de modelo coberto para uso comercial ou público também é proibido se tal risco estiver presente. No entanto, o projeto de lei não faz menção ao uso privado ou sem fins lucrativos. Assim, não está claro qual será o impacto dessa restrição sobre a indústria, ou seja, sobre as empresas que utilizam modelos internos.
Responsabilidades do programador
A SB-1047 exige que os desenvolvedores dos modelos abrangidos implementem várias medidas para garantir a segurança, incluindo as seguintes:
Antes do treino
- Implementar proteções administrativas, técnicas e físicas de cibersegurança
- Implementar a capacidade de executar prontamente um encerramento total
- Implementar um protocolo de segurança e proteção por escrito e separado que forneça garantias razoáveis de que o desenvolvedor não produzirá um modelo coberto ou derivado que represente um risco irracional de danos críticos, segui-lo e fornecer à Divisão de Modelos de Fronteira uma cópia atualizada.
- Realizar revisões anuais de segurança e proteção
Antes do uso comercial ou público
- Realizar avaliações e implementar medidas de segurança razoáveis para prevenir a causa de danos críticos.
Responsabilidades adicionais
- Certificação anual de conformidade por um auditor independente
- Relatar incidentes de segurança que afetem um modelo coberto e quaisquer derivados de modelos cobertos sob o controlo do desenvolvedor dentro de 72 horas
- Implementar salvaguardas e requisitos razoáveis para impedir que terceiros utilizem o modelo, ou criem um modelo derivado, para causar danos críticos.
Responsabilidades do cluster de computação
Os operadores de clusters de computação também devem implementar várias medidas se e quando um cliente utilizar recursos de computação suficientes para treinar um modelo abrangido:
- Obter informações administrativas básicas
- Avalie se o cliente pretende utilizar o cluster de computação para implementar um modelo abrangido.
- Implementar a capacidade de desativar imediatamente todos os recursos utilizados para treinar ou operar modelos de clientes.
- Mantenha registos dos endereços IP dos clientes utilizados para acesso e a data e hora de cada acesso.
Requisitos adicionais
O projeto de lei exige ainda que os desenvolvedores com um modelo comercialmente disponível e os operadores de um cluster de computação tenham uma tabela de preços transparente, uniforme e disponível ao público, e que não se envolvam em discriminação ilegal ou atividades anticompetitivas na determinação de preços ou acesso.
Aplicação da lei
O Procurador-Geral tem, nos termos do projeto de lei, o poder discricionário de intentar uma ação civil na qual o tribunal pode conceder uma medida cautelar ou declaratória, incluindo, entre outras, ordens para modificar, implementar um encerramento total, excluir o modelo abrangido, indenizações, honorários advocatícios e custas, ou qualquer outra medida que o tribunal considere apropriada. O projeto de lei também inclui disposições que impedem os desenvolvedores de se eximirem da responsabilidade por meio de contratos ou estrutura corporativa.
Para proteger os denunciantes, o Comissário do Trabalho também tem poder discricionário, nos termos do projeto de lei, para fazer cumprir disposições que constituiriam uma violação do Código do Trabalho.
O projeto de lei também criaria a Divisão Modelo Fronteiriça e daria à agência discricionariedade, nos termos da lei, para:
- Analisar relatórios de certificação e divulgar publicamente conclusões resumidas
- Aconselhar o Procurador-Geral sobre possíveis violações
- Implementar regulamentação para IA de código aberto e prevenir riscos irracionais dos modelos abrangidos
- Estabelecer acreditação para as melhores práticas
- Publicar relatórios de segurança
- Emitir orientações sobre as categorias de eventos de segurança de IA que podem constituir um estado de emergência e aconselhar o governador da Califórnia em tal caso.
A Divisão de Modelos de Fronteira estaria sob a supervisão direta do Conselho de Modelos de Fronteira, um painel de cinco pessoas também proposto pelo projeto de lei.
Impactos para as empresas
Conforme alterado, o valor-chave a ser observado é o custo de formação de US$ 100 milhões. Esse valor em dólares está fixado na lei, enquanto o limite para o poder computacional pode ser ajustado pela Frontier Model Division. Além disso, podemos esperar que a quantidade de poder computacional que US$ 100 milhões podem comprar aumente com o tempo, à medida que a inovação reduz o custo dos modelos de formação.
Caso o projeto de lei seja aprovado, ele poderá ter vários efeitos sobre os negócios. Os desenvolvedores de modelos de fronteira podem considerar o projeto oneroso. Os desenvolvedores líderes no setor de IA generativa podem esperar enfrentar uma supervisão extensa, o que poderia ter um impacto substancial na velocidade de lançamento de um novo modelo no mercado. Além disso, os desenvolvedores regulamentados que desejam licenciar os seus modelos para desenvolvedores terceirizados precisarão tomar as precauções necessárias para evitar responsabilidades, garantindo que os desenvolvedores terceirizados não possam retreinar o modelo de forma que ele tenha capacidades perigosas. A aprovação deste projeto de lei pode ter um impacto sobre a decisão desses desenvolvedores de transferir as suas operações para um estado menos regulamentado. No entanto, mesmo que o façam, eles ainda estarão sujeitos à regulamentação da Ordem Executiva do presidente Biden.
Em contrapartida, muitos desenvolvedores não serão afetados pelo projeto de lei. Como mencionado anteriormente, mesmo os modelos mais avançados da atualidade não atingem o limite da regulamentação, e as soluções que podem ser desenvolvidas com a tecnologia existente são amplamente difundidas. Por exemplo, existem inúmeros modelos que custam menos de US$ 100.000 para serem treinados, incluindo modelos de aprendizagem profunda desenvolvidos de forma independente para aplicações de visão computacional e redes neurais ajustadas para reconhecimento facial. À medida que os programadores continuam a considerar as muitas aplicações das redes neurais, provavelmente encontrarão muitas que são lucrativas a um custo computacional suficientemente baixo. No entanto, as empresas e os programadores também devem ter em mente a rápida evolução dos modelos de IA e avaliar o caso de uso dos modelos mais intensivos em termos computacionais no dia em que se tornarem economicamente viáveis.
Os desenvolvedores preocupados com a regulamentação têm várias opções disponíveis para desenvolver modelos de qualidade sem exceder os limites de custo e poder computacional. Por exemplo, o projeto de lei não leva em consideração o custo do investimento na qualidade dos dados de treino. Ao melhorar a qualidade dos dados de treino, os desenvolvedores próximos à regulamentação poderiam obter melhorias significativas na precisão sem exceder o limite. Além disso, o ajuste fino de um modelo pré-existente pode ser uma solução viável para muitas empresas que desejam implementar uma solução de IA nos seus negócios.
Tanto os desenvolvedores quanto os implementadores devem continuar a acompanhar a legislação pendente nos estados de todo o país. Mais de quatrocentos projetos de lei relacionados à IA estão atualmente em tramitação em todo o país. Mesmo que o projeto de lei não seja aprovado, é possível que projetos semelhantes sejam aprovados em outros estados.
Agradecimentos especiais a Adam Lundquist, estagiário de verão no escritório da Foley em Boston, por suas contribuições para este artigo.