California Dreamin’: ¿Frenará la SB-1047 la innovación en IA?
El gobernador de California, Gavin Newsom, vetó la ley SB-1047 el 29 de septiembre de 2024, destacando sus preocupaciones sobre qué modelos quedaban cubiertos por la legislación.
El 2 de julio de 2024, el Comité Judicial de la Asamblea del Estado de California aprobó la SB-1047 (Ley de innovación segura y protegida para modelos de inteligencia artificial de vanguardia), tras su aprobación por el Senado el 21 de mayo de 2024. El proyecto de ley tiene por objeto reducir el riesgo de nuevas amenazas para la seguridad pública que van más allá del panorama actual de la inteligencia artificial (IA) y sigue los pasos de la SB205 de Colorado (Protección del consumidor en las interacciones con la inteligencia artificial), considerada por muchos como la primera legislación integral sobre IA en los Estados Unidos.
Aunque la SB1047 no se apruebe como ley en California, podría servir de modelo para otras legislaturas preocupadas por los consumidores que estén contemplando la posibilidad de regular este ámbito. Examinemos los detalles más a fondo:
Alcance
A diferencia del proyecto de ley de Colorado, que regula los modelos en función del sector empresarial o la aplicación, este proyecto de ley se centra exclusivamente en los modelos de IA en función de su complejidad. En lugar de aplicarse a los desarrolladores de IA en general, se centra específicamente en los desarrolladores (es decir, las empresas) que entrenan o proporcionan «modelos cubiertos» o «derivados de modelos cubiertos» en California.
Modelos cubiertos
El proyecto de ley, enmendado el 3 de julio, define «modelo cubierto» como un modelo de IA «entrenado utilizando una cantidad de potencia de cálculo superior a 10^26 operaciones enteras o en coma flotante (FLOP), cuyo coste supera los cien millones de dólares (100 000 000 USD)». Este umbral refleja el establecido por el presidente Biden en su Orden Ejecutiva sobre el desarrollo y uso seguro y fiable de la inteligencia artificial. En virtud de dicha orden, todos los modelos entrenados utilizando una cantidad de potencia de cálculo superior a 10^26 FLOP están sujetos a la regulación del Secretario de Comercio y deben informar a este.
Actualmente, estas dos cifras representan un umbral similar, ya que 100 000 000 USD es el coste aproximado de entrenar un modelo con 10^26 FLOP. Evaluar la cantidad de potencia de cálculo proporciona información sobre la eficiencia con la que un ordenador puede manejar tareas complejas y a gran escala. En el ámbito de la IA, una alta potencia de cálculo es esencial para entrenar modelos de IA sofisticados, especialmente aquellos que implican algoritmos de aprendizaje profundo.
En el momento de redactar este artículo, ningún modelo existente entra dentro del ámbito de la potencia de cálculo del proyecto de ley propuesto. La mayor potencia de cálculo utilizada en una sesión de entrenamiento es la de Gemini Ultra, estimada en 5*10^25 FLOP, lo que lo convierte en el modelo más intensivo en términos de cálculo hasta la fecha. Sin embargo, dado el rápido avance de la IA, es de esperar que los modelos superen el umbral de los 10^26 FLOP en el plazo de un año.
La mayoría de las disposiciones del proyecto de ley se extienden también a los «derivados de modelos cubiertos», que el proyecto de ley, en su versión modificada, define como copias no modificadas de un modelo cubierto, copias de un modelo cubierto que reciben modificaciones posteriores al entrenamiento distintas del ajuste fino, y copias de modelos cubiertos que han sido ajustadas con menos de tres veces 10^25 FLOPs de potencia de cálculo.
Restricciones para desarrolladores
Según la enmienda, los desarrolladores no pueden utilizar un modelo cubierto con fines comerciales o públicos si existe un riesgo irrazonable de que el modelo pueda causar o permitir un daño crítico. Del mismo modo, también se prohíbe poner a disposición para uso comercial o público un modelo cubierto o un derivado de un modelo cubierto si existe dicho riesgo. Sin embargo, el proyecto de ley no hace mención alguna al uso privado o sin ánimo de lucro. Por consiguiente, no está claro qué repercusión tendrá esta restricción en la industria, concretamente en aquellas empresas que utilizan modelos internos.
Responsabilidades del promotor
La SB-1047 exige a los desarrolladores de los modelos cubiertos que implementen diversas medidas para garantizar la seguridad, entre las que se incluyen las siguientes:
Antes del entrenamiento
- Implementar protecciones administrativas, técnicas y físicas para la ciberseguridad.
- Implementar la capacidad de ejecutar rápidamente un apagado completo.
- Implementar un protocolo de seguridad y protección por escrito e independiente que ofrezca garantías razonables de que el desarrollador no producirá un modelo cubierto o derivado que plantee un riesgo irrazonable de daño crítico, cumplirlo y proporcionar a la División de Modelos Fronterizos una copia actualizada.
- Realizar revisiones anuales de seguridad y protección.
Antes del uso comercial o público
- Realizar evaluaciones e implementar medidas de seguridad razonables para prevenir la causa de daños graves.
Responsabilidades adicionales
- Certificación anual de cumplimiento por parte de un auditor externo.
- Notificar los incidentes de seguridad que afecten a un modelo cubierto y a cualquier derivado de un modelo cubierto bajo el control del desarrollador en un plazo de 72 horas.
- Implementar medidas de seguridad y requisitos razonables para evitar que terceros utilicen el modelo o creen un modelo derivado con el fin de causar daños graves.
Responsabilidades del clúster informático
Los operadores de clústeres informáticos también deben implementar diversas medidas si un cliente utiliza recursos informáticos suficientes para entrenar un modelo cubierto:
- Obtener información administrativa básica.
- Evaluar si el cliente tiene la intención de utilizar el clúster informático para implementar un modelo cubierto.
- Implementar la capacidad de ejecutar rápidamente un cierre total de cualquier recurso utilizado para entrenar u operar modelos de clientes.
- Mantenga registros de las direcciones IP de los clientes utilizadas para acceder y la fecha y hora de cada acceso.
Requisitos adicionales
El proyecto de ley exige además a los desarrolladores con un modelo cubierto disponible comercialmente y a los operadores de un clúster informático que dispongan de una lista de precios transparente, uniforme y accesible al público, y que no incurran en discriminación ilegal ni en actividades anticompetitivas a la hora de determinar los precios o el acceso.
Ejecución
El fiscal general tiene la facultad discrecional, en virtud del proyecto de ley, de interponer una acción civil en la que el tribunal puede conceder medidas cautelares o declarativas, incluyendo, entre otras, órdenes de modificación, cierre total, eliminación del modelo cubierto, indemnización por daños y perjuicios, honorarios y costas de abogados, o cualquier otra medida que el tribunal considere apropiada. El proyecto de ley también incluye disposiciones que impiden a los desarrolladores eludir su responsabilidad mediante contratos o estructuras corporativas.
Para proteger a los denunciantes, el Comisionado de Trabajo también tiene la facultad discrecional, en virtud del proyecto de ley, de hacer cumplir las disposiciones que constituirían una infracción del Código Laboral.
El proyecto de ley también crearía la División Modelo Fronteriza y otorgaría a la agencia discreción bajo el estatuto para:
- Revisar los informes de certificación y publicar los resultados resumidos.
- Asesorar al Fiscal General sobre posibles infracciones.
- Implementar la reglamentación para la IA de código abierto y prevenir riesgos irrazonables de los modelos cubiertos.
- Establecer la acreditación de las mejores prácticas.
- Publicar informes de seguridad
- Emitir directrices sobre las categorías de incidentes relacionados con la seguridad de la IA que puedan constituir una situación de emergencia y asesorar al gobernador de California en tal caso.
La División de Modelos Fronterizos estaría bajo la supervisión directa de la Junta de Modelos Fronterizos, un panel de cinco personas también propuesto por el proyecto de ley.
Repercusiones para las empresas
Según la enmienda, la cifra clave a tener en cuenta es el coste de formación de 100 000 000 USD. Esta cifra en dólares está fijada en la ley, mientras que el umbral de potencia computacional podría ser ajustado por la División de Modelos Fronterizos. Además, cabe esperar que la potencia computacional que se puede adquirir con 100 000 000 USD aumente con el tiempo, a medida que la innovación reduzca el coste de los modelos de formación.
Si el proyecto de ley se convierte en ley, podría tener una serie de efectos en las empresas. Los desarrolladores de modelos fronterizos pueden considerar que el proyecto de ley es oneroso. Los desarrolladores que lideran el sector de la IA generativa pueden esperar enfrentarse a una amplia supervisión que podría tener un impacto sustancial en la velocidad de comercialización de un nuevo modelo. Además, los desarrolladores regulados que deseen conceder licencias de sus modelos a terceros deberán tomar las precauciones necesarias para evitar responsabilidades, asegurándose de que los terceros no puedan reentrenar el modelo de tal manera que adquiera capacidades peligrosas. La aprobación de este proyecto de ley podría influir en la decisión de estos desarrolladores de trasladar sus operaciones a un estado menos regulado. Sin embargo, incluso si lo hacen, seguirán estando sujetos a la regulación de la Orden Ejecutiva del presidente Biden.
Por el contrario, muchos desarrolladores no se verán afectados por el proyecto de ley. Como se ha mencionado anteriormente, ni siquiera los modelos más avanzados de la actualidad alcanzan el umbral de regulación, y las soluciones que se pueden desarrollar con la tecnología existente están muy extendidas. Por ejemplo, existen numerosos modelos cuyo entrenamiento cuesta menos de 100 000 dólares estadounidenses, entre los que se incluyen modelos de aprendizaje profundo desarrollados de forma independiente para aplicaciones de visión artificial y redes neuronales ajustadas para el reconocimiento facial. A medida que los desarrolladores sigan estudiando las numerosas aplicaciones de las redes neuronales, es probable que encuentren muchas que sean rentables con un coste computacional suficientemente bajo. Sin embargo, las empresas y los desarrolladores también deben tener en cuenta la rapidez con la que avanzan los modelos de IA y evaluar el caso de uso de los modelos más intensivos en términos computacionales el día en que sean económicamente viables.
Los desarrolladores preocupados por la normativa disponen de numerosas opciones para desarrollar modelos de calidad sin superar los umbrales de coste y potencia computacional. Por ejemplo, el proyecto de ley no tiene en cuenta el coste de invertir en la calidad de los datos de entrenamiento. Al mejorar la calidad de los datos de entrenamiento, los desarrolladores cercanos a la normativa podrían obtener mejoras significativas en la precisión sin superar el umbral. Además, el ajuste de un modelo preexistente podría ser una solución viable para muchas empresas que desean implementar una solución de IA en su negocio.
Tanto los desarrolladores como los implementadores deben seguir supervisando la legislación pendiente en los estados de todo el país. Actualmente hay más de cuatrocientos proyectos de ley relacionados con la IA en trámite en todo el país. Aunque el proyecto de ley no se apruebe, es posible que se aprueben otros similares en otros estados.
Un agradecimiento especial a Adam Lundquist, asociado de verano en la oficina de Foley en Boston, por sus contribuciones a este artículo.