Guía sobre uso de chatbots de inteligencia artificial para jueces de Inglaterra y Gales (de 12 de diciembre de 2023)
En la guía se señalan algunas limitaciones clave de los chatbots públicos de inteligencia artificial (IA). Se destaca que dichos chatbots no proporcionan respuestas de bases de datos autorizadas, que generan texto nuevo utilizando un algoritmo basado en las indicaciones que reciben y los datos con los que han sido entrenados. Esto significa que el resultado que generan los chatbots de inteligencia artificial es lo que el modelo predice que será la combinación de palabras más probable (según los documentos y datos que contiene como fuente de información). No se trata necesariamente de la respuesta más precisa.
También se advierte que al igual que con cualquier otra información disponible en internet, las herramientas de inteligencia artificial pueden ser útiles para encontrar material que se reconocería como correcto pero que no tiene a mano, pero sin embargo se señala que son una mala forma (a poor way) de realizar investigaciones para encontrar nueva información que no puede verificar. Pueden verse mejor como una forma de obtener una confirmación no definitiva de algo, en lugar de proporcionar hechos inmediatamente correctos.
Se agrega como parte de las limitantes básicas que la calidad de las respuestas que reciba dependerá de cómo interactúe el usuario con la herramienta de inteligencia artificial correspondiente, incluida la naturaleza de las indicaciones que ingrese. Incluso con las mejores indicaciones, la información proporcionada puede ser inexacta, incompleta, engañosa o sesgada.
Por último, como parte de las limitantes clave se señala que los Large Language Model (LLM) disponibles actualmente parecen haber sido capacitados con material publicado en internet. Con referencia a aspectos más específicos de su aplicación fuera los Estados Unidos de Norteamérica, se señala que la «visión» de la ley que tienen, a menudo se basa en gran medida en la ley estadounidense, aunque algunos pretenden poder distinguir entre ésta y la ley inglesa (algo similar se puede decir de la jurisprudencia y los precedentes).
Resulta también muy interesante y pertinente la advertencia que se lanza con relación a confidencialidad y privacidad, lo que resulta relevante en términos de ciberseguridad. Puntualmente, se alerta de no ingresar a los chatbots ninguna información que no sea de dominio público. Se aconseja no ingresar información que sea privada o confidencial, en tanto los chatbots de IA actualmente disponibles públicamente recuerdan cada pregunta que se les hace, así como cualquier otra información que se introduce. Luego, esa información quedará disponible para usarse en respuestas a las consultas de otros usuarios. Como resultado, cualquier cosa que se escriba podría hacerse pública. Como medida de prevención se llega al detalle de dar algunos consejos como desactivar el historial de chat en los chatbots de IA si esta opción está disponible. En el futuro, se señala, es posible que estén disponibles herramientas de IA diseñadas para su uso en juzgados y tribunales, pero, hasta que eso suceda, se debe tratar a todas las herramientas de IA como si fueran capaces de hacer público cualquier cosa que se ingrese en ellas.
La guía también advierte acerca de que la precisión de cualquier información que le haya proporcionado una herramienta de inteligencia artificial se debe verificar antes de utilizarla o confiar en ella. La información proporcionada por las herramientas de IA puede ser inexacta, incompleta, engañosa o desactualizada (incluso, siendo más específica: se señala que si se pretende representar la ley inglesa, es posible que no lo haga). Estas herramientas pueden inventar casos, generar citas ficticias, o hacer referencia a legislación, artículos o textos legales que no existen. También pueden proporcionar información incorrecta o engañosa sobre la ley o cómo podría aplicarse, y cometer errores sobre hechos.
La información generada por la IA reflejará inevitablemente errores y sesgos en sus datos de entrenamiento. Siempre se debe tener en cuenta esa posibilidad y la necesidad de corregirlo. En ese sentido, se recuerda que los titulares de cargos judiciales son personalmente responsables del material que se produce en su nombre.
Finalmente, se hace alusión a los usuarios / abogados que pueden haber utilizado herramientas de IA. Los profesionales del derecho han utilizado algunos tipos de herramientas de IA durante un tiempo considerable sin dificultad. Todos los representantes legales son responsables del material que presentan ante el tribunal y tienen la obligación profesional de garantizar que sea preciso y apropiado. Siempre que la IA se utilice de manera responsable, no hay ninguna razón por la que un representante legal deba referirse a su uso, pero esto depende del contexto. Sin embargo, hasta que la profesión jurídica se familiarice con estas nuevas tecnologías, en ocasiones puede ser necesario recordar a los abogados individuales sus obligaciones y confirmar que han verificado de forma independiente la exactitud de cualquier investigación o cita de casos que se haya generado con la asistencia de un chatbot de IA. Los chatbots de IA ahora están siendo utilizados por litigantes no representados. La guía muestra ejemplos de indicaciones de que el texto se ha producido con IA. Es interesante como señala que las herramientas de inteligencia artificial pueden emplearse para producir material falso, incluidos textos, imágenes y vídeos. Se dice que los juzgados y tribunales siempre han tenido que ocuparse de falsificaciones y acusaciones de falsificación, que implican distintos niveles de sofisticación. Los jueces deben ser conscientes de esta nueva posibilidad y de los posibles desafíos que plantea la tecnología deepfake.
Como anexo se agregan los siguientes ejemplos de usos potenciales y riesgos de la IA generativa en juzgados y tribunales (traducción libre):
- Tareas potencialmente útiles:
• Las herramientas de IA son capaces de resumir grandes cuerpos de texto. Como ocurre con cualquier resumen, se debe tener cuidado para garantizar que sea preciso.
• Las herramientas de IA se pueden utilizar al escribir presentaciones, por ejemplo, para proporcionar sugerencias sobre temas a cubrir.
• La IA puede realizar tareas administrativas como redactar correos electrónicos y memorandos.
- Tareas no recomendadas:
• Investigación jurídica: las herramientas de inteligencia artificial son una forma deficiente de realizar investigaciones para encontrar nueva información que no se puede verificar de forma independiente. Pueden resultar útiles como forma de recordar material que el usuario reconocería como correcto.
• Análisis jurídico: los actuales chatbots públicos de IA no producen análisis ni razonamientos convincentes.
Entre los indicios de que el trabajo puede haber sido producido por IA que lucen en el anexo, se mencionan los siguientes: referencias a casos que no suenan familiares o que tienen citas desconocidas (a veces de los EE. UU.); presentaciones que utilizan terminología estadounidense o se refieren a casos en el extranjero; contenido que (al menos superficialmente) parece ser muy persuasivo y bien escrito, pero que, al examinarlo más de cerca, contiene errores sustanciales obvios.