Investigadores de Stanford analizan la fiabilidad de las principales herramientas de investigación jurídica basadas en inteligencia artificial.
Este artículo analiza el concepto de generación aumentada por recuperación (RAG) y su potencial para abordar las alucinaciones legales en los modelos lingüísticos. La RAG es una técnica que combina pasos de recuperación y generación para producir respuestas más precisas y detalladas mediante la incorporación de información de los documentos recuperados. El paso de recuperación consiste en seleccionar documentos relevantes basándose en la consulta del usuario, mientras que el paso de generación utiliza estos documentos junto con la consulta para generar una respuesta.
El artículo destaca las limitaciones del RAG en el ámbito jurídico. La recuperación de información en el ámbito jurídico es difícil debido a la falta de respuestas claras y a la necesidad de tener en cuenta múltiples fuentes a lo largo del tiempo y el espacio. La relevancia de los documentos no se basa únicamente en la similitud del texto, ya que diferentes jurisdicciones y períodos de tiempo pueden tener normas aplicables diferentes. La generación de textos jurídicos significativos también es compleja, ya que requiere la síntesis de hechos y normas de diversas fuentes, teniendo en cuenta el contexto jurídico.
Para evaluar la calidad de los sistemas RAG, el artículo introduce los conceptos de corrección y fundamentación. La corrección se refiere a la precisión factual y la relevancia de la respuesta, mientras que la fundamentación evalúa la relación entre la respuesta y las fuentes citadas. Una respuesta puede ser correcta pero estar mal fundamentada si afirma falsamente el respaldo de una fuente no relacionada. Las alucinaciones se definen como respuestas que son incorrectas o están mal fundamentadas.
El artículo destaca la importancia de abordar las alucinaciones en las herramientas de IA jurídica, ya que pueden confundir a los usuarios y tener consecuencias potencialmente peligrosas. Sostiene que el simple hecho de enlazar con documentos jurídicos reales no garantiza la ausencia de alucinaciones si las fuentes enlazadas son irrelevantes o contradicen las afirmaciones de la herramienta.
Aunque RAG se muestra prometedor para mitigar las alucinaciones legales, tiene limitaciones en el ámbito jurídico. El artículo proporciona un marco para evaluar la corrección y la fundamentación de las respuestas y destaca la necesidad de tomar decisiones de diseño cuidadosas en las etapas de recuperación y generación. Abordar las alucinaciones requiere conocimientos especializados tanto en informática como en derecho para garantizar la precisión y fiabilidad de las herramientas de IA jurídica.
Aunque las alucinaciones se reducen en comparación con los chatbots de uso general (GPT-4), hemos observado que las herramientas de investigación de IA creadas por LexisNexis y Thomson Reuters producen alucinaciones en más del 17 % de los casos.
Ver artículo de referencia