Los tribunales de California anuncian nuevas regulaciones sobre inteligencia artificial
El 18 de julio de 2025, el Consejo Judicial de California aprobóun conjunto de normas para integrar la IA generativa en las operaciones judiciales. Con la adopción de la Norma 10.430 y la Norma 10.80 , los tribunales pretenden establecer el primer marco amplio del país para el uso de la IA generativa en los procedimientos judiciales. Se espera que estas nuevas directrices entren en vigoren septiembre de 2025.
Bajo la presidencia de la jueza Patricia Guerrero en 2024, un grupo de trabajo con el objetivo de equilibrar la innovación con la precaución y garantizar la eficiencia de la IA sin comprometer la confianza impulsó estas normas. Con estas nuevas normas, todos los tribunales del estado que utilicen IA deben esbozar políticas claras centradas en la confidencialidad, la imparcialidad y la precisión antes del 15 de diciembre de 2025.
Se ha debatido mucho, tanto en los medios de comunicación como en privado, sobre por qué estas barreras de protección son fundamentales. Si bien la IA puede agilizar tareas como revisar la jurisprudencia, redactar memorandos, resumir informes y ahorrar tiempo a los empleados de los tribunales, siguen existiendo muchos riesgos. Estos riesgos incluyen una variedad de cuestiones, como violaciones de datos o resultados sesgados. Para abordar esta cuestión, las normas nopermiten introducir información confidencial, como los permisos de conducir, en las herramientas públicas de IA. También exigen la revisión humana de todos los resultados generados por la IA y requieren un etiquetado claro del contenido público creado por la IA.
Según larevista ABA Journal,la política de cada tribunal debe «prohibir la introducción de información confidencial, de identificación personal u otra información no pública en un sistema público de IA generativa», así como «exigir la divulgación del uso o la dependencia de la IA generativa si la versión final de una obra escrita, visual o auditiva proporcionada al público consiste íntegramente en resultados de IA generativa».
Las normas no permiten que la IA tome decisiones ni actúe de forma autónoma, ya que la supervisión humana garantiza que la IA respalde, y no sustituya, la experiencia judicial.
Al automatizar tareas que se consideran repetitivas por naturaleza, la IA agiliza la resolución de casos y reduce la carga de trabajo. Sin embargo, las normas reconocen las limitaciones de la IA, especialmente en lo que respecta a los sesgos. Los sistemas de IA, entrenados con datos históricos, pueden, sin saberlo, aumentar las desigualdades sociales si no se controlan. El marco normativo de California exige a los tribunales que encuentren un equilibrio entre actuar de forma proactiva para prevenir el uso discriminatorio y, al mismo tiempo, maximizar las ventajas de la IA y mitigar sus riesgos.
La transparencia, la precisión, la privacidad y la seguridad son otras áreas destacadas. Los documentos o dictámenes generados por IA que se hagan públicos deben revelarse como tales si queremos dar pasos hacia el refuerzo de la base de confianza del sistema jurídico.
Como el estado más grande en adoptar un marco tan completo para el uso de la IA en sus tribunales, esta política se posiciona como un posible modelo nacional. La política de California podría establecer un estándar para el uso responsable de la IA, y más estados, como Nueva York, están explorando sus propias normas sobre IA.
Al establecer directrices éticas claras, California está liderando el camino hacia un sistema judicial más rápido, más justo y más accesible.