Ir al contenido principal

Visitas

Guía sobre uso de chatbots de inteligencia artificial para jueces de Inglaterra y Gales (de 12 de diciembre de 2023)

El 12 de diciembre de 2023 se publicó la muy interesante Artificial Intelligence (AI). Guidance for Judicial Office Holders, una guía para jueces de Inglaterra y Gales (así como secretarios y personal de apoyo del Poder Judicial), cuyo objeto central es la inteligencia artificial generativa y la utilización de chatbots. Tal como se señala en uno de los puntos de la guía, siempre que estas pautas se sigan adecuadamente no hay razón por la cual la inteligencia artificial generativa no pueda ser una herramienta secundaria potencialmente útil. Aquí ofrezco un resumen de lo que entiendo más relevante, así como material adicional [atención: el acceso a la guía se encuentra al final]. 

En la guía se señalan algunas limitaciones clave de los chatbots públicos de inteligencia artificial (IA). Se destaca que dichos chatbots no proporcionan respuestas de bases de datos autorizadas, que generan texto nuevo utilizando un algoritmo basado en las indicaciones que reciben y los datos con los que han sido entrenados. Esto significa que el resultado que generan los chatbots de inteligencia artificial es lo que el modelo predice que será la combinación de palabras más probable (según los documentos y datos que contiene como fuente de información). No se trata necesariamente de la respuesta más precisa. 

También se advierte que al igual que con cualquier otra información disponible en internet, las herramientas de inteligencia artificial pueden ser útiles para encontrar material que se reconocería como correcto pero que no tiene a mano, pero sin embargo se señala que son una mala forma (a poor way) de realizar investigaciones para encontrar nueva información que no puede verificar. Pueden verse mejor como una forma de obtener una confirmación no definitiva de algo, en lugar de proporcionar hechos inmediatamente correctos. 

Se agrega como parte de las limitantes básicas que la calidad de las respuestas que reciba dependerá de cómo interactúe el usuario con la herramienta de inteligencia artificial correspondiente, incluida la naturaleza de las indicaciones que ingrese. Incluso con las mejores indicaciones, la información proporcionada puede ser inexacta, incompleta, engañosa o sesgada. 

Por último, como parte de las limitantes clave se señala que los Large Language Model (LLM) disponibles actualmente parecen haber sido capacitados con material publicado en internet. Con referencia a aspectos más específicos de su aplicación fuera los Estados Unidos de Norteamérica, se señala que la «visión» de la ley que tienen, a menudo se basa en gran medida en la ley estadounidense, aunque algunos pretenden poder distinguir entre ésta y la ley inglesa (algo similar se puede decir de la jurisprudencia y los precedentes). 

Resulta también muy interesante y pertinente la advertencia que se lanza con relación a confidencialidad y privacidad, lo que resulta relevante en términos de ciberseguridad. Puntualmente, se alerta de no ingresar a los chatbots ninguna información que no sea de dominio público. Se aconseja no ingresar información que sea privada o confidencial, en tanto los chatbots de IA actualmente disponibles públicamente recuerdan cada pregunta que se les hace, así como cualquier otra información que se introduce. Luego, esa información quedará disponible para usarse en respuestas a las consultas de otros usuarios. Como resultado, cualquier cosa que se escriba podría hacerse pública. Como medida de prevención se llega al detalle de dar algunos consejos como desactivar el historial de chat en los chatbots de IA si esta opción está disponible. En el futuro, se señala, es posible que estén disponibles herramientas de IA diseñadas para su uso en juzgados y tribunales, pero, hasta que eso suceda, se debe tratar a todas las herramientas de IA como si fueran capaces de hacer público cualquier cosa que se ingrese en ellas.

La guía también advierte acerca de que la precisión de cualquier información que le haya proporcionado una herramienta de inteligencia artificial se debe verificar antes de utilizarla o confiar en ella. La información proporcionada por las herramientas de IA puede ser inexacta, incompleta, engañosa o desactualizada (incluso, siendo más específica: se señala que si se pretende representar la ley inglesa, es posible que no lo haga). Estas herramientas pueden inventar casos, generar citas ficticias, o hacer referencia a legislación, artículos o textos legales que no existen. También pueden proporcionar información incorrecta o engañosa sobre la ley o cómo podría aplicarse, y cometer errores sobre hechos. 

La información generada por la IA reflejará inevitablemente errores y sesgos en sus datos de entrenamiento. Siempre se debe tener en cuenta esa posibilidad y la necesidad de corregirlo. En ese sentido, se recuerda que los titulares de cargos judiciales son personalmente responsables del material que se produce en su nombre. 

Finalmente, se hace alusión a los usuarios / abogados que pueden haber utilizado herramientas de IA. Los profesionales del derecho han utilizado algunos tipos de herramientas de IA durante un tiempo considerable sin dificultad. Todos los representantes legales son responsables del material que presentan ante el tribunal y tienen la obligación profesional de garantizar que sea preciso y apropiado. Siempre que la IA se utilice de manera responsable, no hay ninguna razón por la que un representante legal deba referirse a su uso, pero esto depende del contexto. Sin embargo, hasta que la profesión jurídica se familiarice con estas nuevas tecnologías, en ocasiones puede ser necesario recordar a los abogados individuales sus obligaciones y confirmar que han verificado de forma independiente la exactitud de cualquier investigación o cita de casos que se haya generado con la asistencia de un chatbot de IA. Los chatbots de IA ahora están siendo utilizados por litigantes no representados. La guía muestra ejemplos de indicaciones de que el texto se ha producido con IA. Es interesante como señala que las herramientas de inteligencia artificial pueden emplearse para producir material falso, incluidos textos, imágenes y vídeos. Se dice que los juzgados y tribunales siempre han tenido que ocuparse de falsificaciones y acusaciones de falsificación, que implican distintos niveles de sofisticación. Los jueces deben ser conscientes de esta nueva posibilidad y de los posibles desafíos que plantea la tecnología deepfake.

Como anexo se agregan los siguientes ejemplos de usos potenciales y riesgos de la IA generativa en juzgados y tribunales (traducción libre):  

- Tareas potencialmente útiles:

• Las herramientas de IA son capaces de resumir grandes cuerpos de texto. Como ocurre con cualquier resumen, se debe tener cuidado para garantizar que sea preciso. 

• Las herramientas de IA se pueden utilizar al escribir presentaciones, por ejemplo, para proporcionar sugerencias sobre temas a cubrir. 

• La IA puede realizar tareas administrativas como redactar correos electrónicos y memorandos. 

- Tareas no recomendadas: 

• Investigación jurídica: las herramientas de inteligencia artificial son una forma deficiente de realizar investigaciones para encontrar nueva información que no se puede verificar de forma independiente. Pueden resultar útiles como forma de recordar material que el usuario reconocería como correcto. 

• Análisis jurídico: los actuales chatbots públicos de IA no producen análisis ni razonamientos convincentes. 

Entre los indicios de que el trabajo puede haber sido producido por IA que lucen en el anexo, se mencionan los siguientes: referencias a casos que no suenan familiares o que tienen citas desconocidas (a veces de los EE. UU.); presentaciones que utilizan terminología estadounidense o se refieren a casos en el extranjero; contenido que (al menos superficialmente) parece ser muy persuasivo y bien escrito, pero que, al examinarlo más de cerca, contiene errores sustanciales obvios.


+++ Para mayor ilustración acerca del uso de internet e inteligencias artificiales generativas por parte de jueces y abogados: Soba Bracesco, I. M. (2023). Wikipedia, ChatGPT y otros en el proceso jurisdiccional. Su utilización por abogados y jueces. Revista de Derecho de la Universidad Católica de la Santísima Concepción, (42), 108–125. https://doi.org/10.21703/issn2735-6337/2023.n42.05

+++ Para mayor ilustración acerca de la ciberseguridad, las ciberamenazas a los Poderes Judiciales, etc., ver: Soba Bracesco, I. M. (2023). Ciberseguridad y ataques informáticos a los Poderes Judiciales: una mirada desde el derecho procesal. Revista Eletrônica De Direito Processual, 24(3). Recuperado de https://www.e-publicacoes.uerj.br/redp/article/view/79575

+++ Courts and Tribunals – Judiciary (Inglaterra y Gales). Artificial Intelligence (AI). Guidance for Judicial Office Holders (12 de diciembre de 2023). Recuperado de: https://www.judiciary.uk/wp-content/uploads/2023/12/AI-Judicial-Guidance.pdf

Entradas populares de este blog

Corte Suprema (EE.UU.), Daubert v. Merrell Dow Pharmaceuticals, Inc., 509 U.S. 579 (1993).

Acceso al caso:  Corte Suprema (EE.UU.), Daubert v. Merrell DowPharmaceuticals, Inc., 509 U.S. 579 (1993). Resulta de interés realizar, aunque sea de modo muy breve, una introducción a ese famoso caso, así como algunas sucintas reflexiones. Hace ya más de veinticinco años, la jurisprudencia norteamericana ingresaba en el contexto problemático de la ciencia, trasladándolo al ámbito institucional del derecho. En Daubert , “…los demandantes, dos niños pequeños nacidos con malformaciones graves y sus padres alegaban que los daños se debían a que las madres de aquellos habían consumido Bendectin durante el embarazo. El laboratorio demandado negaba la causalidad y, en primera instancia, el Tribunal de Distrito, vistos los peritajes presentados por ambas partes, aplicó el canon de Frye, resolvió que las tesis de los demandantes no cumplían con el requisito de la aceptación general y rechazó su reclamación. La resolución fue confirmada en la apelación y los demandantes recurrieron ...

El testigo técnico. Diferencias con el perito

En la presente entrada plantearé algunas reflexiones acerca de la conceptualización del llamado testigo técnico (eventualmente, testigo experto o testigo-perito, según el ordenamiento que se considere). En particular, el interés que existe en diferenciarlo de la figura del experto cuando este reviste el estatuto del perito. [1] El testigo técnico, es, como surge de su propia denominación, un testigo, no un perito. En ese sentido, se encuentra sujeto al estatuto del testigo; en particular, al deber de comparecer, de declarar y de decir la verdad respecto del relato o narración de los hechos percibidos. Como testigo, “…es típicamente un narrador. Se supone que tiene conocimiento de algunos hechos del caso y se espera que ‘relate’ los hechos que conoce.” [2] En esa calidad, al igual que el testigo común, se encuentra sujeto a una determinada plataforma fáctica. [3] Agrega Parra Quijano, al referir a las diferencias entre el perito y el testigo, que: “Los acontecimientos preproce...

Datos personales

Mi foto
Ignacio M. Soba Bracesco
Profesor de Derecho procesal en carreras de pregrado y posgrado en distintas Universidades de Uruguay e Iberoamérica. Doctor en Derecho por la Universidad de Salamanca. Autor, coautor y colaborador en diversos artículos, ponencias y libros de su especialidad, tanto en el Uruguay como en el extranjero. Expositor, ponente y relator en Jornadas y Congresos. Coautor de la sección de legislación procesal en la Revista Uruguaya de Derecho Procesal (2007 a la fecha). Integrante de la Comisión Revisora del Código Modelo de Procesos Administrativos para Iberoamérica. Miembro de la International Association of Procedural Law. Miembro del Instituto Iberoamericano de Derecho Procesal. Presidente honorario del Foro Uruguayo de Derecho Probatorio y Director de su Anuario. Co-Coordinador Académico en Probaticius. Miembro Adherente del Instituto Panamericano de Derecho Procesal. Miembro Fundador de la Asociación Uruguaya de Derecho Procesal Eduardo J. Couture. Integrante del Instituto Uruguayo de Derecho Procesal. Socio del Colegio de Abogados del Uruguay.