Una evaluación reciente muestra la falta de transparencia de los modelos de IA
Un reciente índice de transparencia que evalúa diez modelos fundamentales de IA ha hecho un llamamiento para que se incremente la divulgación de información en el sector de la IA. Investigadores de Stanford, el MIT y Princeton sostienen que, sin una mayor transparencia sobre el funcionamiento interno, los datos de entrenamiento y las consecuencias de las herramientas avanzadas de IA, seguirá siendo difícil comprender y mitigar los riesgos asociados. La autorregulación ha demostrado ser insuficiente, ya que las empresas líderes se han vuelto más reservadas por motivos de competencia y seguridad. Los investigadores sostienen que dar prioridad a la transparencia debe ser un objetivo central de la legislación sobre IA, y hacen hincapié en la urgencia de hacer que el desarrollo de la IA sea más comprensible y responsable.
Una evaluación condenatoria de 10 modelos fundamentales de IA en un nuevo índice de transparencia está ejerciendo una nueva presión sobre los desarrolladores de IA para que compartan más información sobre sus productos, y sobre los legisladores y reguladores para que exijan dicha divulgación.
Ver artículo de referencia
Por qué es importante: Los investigadores de Stanford, el MIT y Princeton que crearon el índice afirman que, a menos que las empresas de IA sean más comunicativas sobre el funcionamiento interno, los datos de entrenamiento y el impacto de sus herramientas más avanzadas, los usuarios nunca podrán comprender plenamente los riesgos asociados a la IA y los expertos nunca podrán mitigarlos.