La Inteligencia Artificial y su participación en la resolución de disputas:
Una cuidadosa atención merece el uso de la IA para la toma de decisiones de órganos de resolución de disputas, así como para la presentación de los casos por los abogados y las partes. Incorrectas interpretaciones de las conocidas definiciones pueden generar la falsa impresión de que los sistemas de IA pueden recurrir a procesos cognitivos (razonamiento argumentativo, planeamiento, toma de decisiones, y otros) exactamente como cualquier otro ser humano.
Algunos podrían suponer, por tanto, que sistemas automatizados e inteligentes pueden actualmente resolver disputas o formular argumentos jurídicos con un alto grado de precisión y acierto, sin intervención alguna del razonamiento humano. Esta es, sin embargo, una errónea hipótesis.
Los sistemas de IA no son máquinas inteligentes en un sentido significativo (Surden, Harry. “Artificial Intelligence and Law: An Overview” (2019) Ga.St.U.L.Rev. 1305, 1308.). No estamos frente a una inteligencia idéntica a la de un humano. Si bien avances significativos se han producido, aún no podemos confiar enteramente en dichas herramientas. El razonamiento humano, fundamental para el ejercicio argumentativo, de motivación, y toma de decisiones, no ha sido reemplazado completamente. O por lo menos aún no.
Algunos Lineamientos Internacionales:
El uso de la IA está presente en nuestro medio y no parece que haya marcha atrás. Empresas, abogados, expertos, árbitros, jueces, personas naturales, y hasta centros de arbitrajes usan o podrían usar dicha tecnología para diversas tareas, desde la administración de los casos hasta la redacción de sentencias y laudos.
Aun cuando las herramientas de IA promueven la eficiencia, el uso masivo de los sistemas de IA generativa ha causado preocupación al no ser enteramente confiables. En un litigio ante la Corte Superior de Massachusetts (Darlene Smith v. Matthew Farwell, & others), un abogado fue multado por usar IA generativa para fabricar y proveer falsa información y por preparar documentos relevantes confiando ciegamente en el resultado de la herramienta. En otro caso (Roberto Mata v. Avianca), un abogado citó inexistentes decisiones judiciales para defender su caso. No fue sorpresa para todos cuando se descubrió que un conocido sistema de IA generativa “creó” tales decisiones. Incluso una nota periodística ha comentado este caso (“Here’s What Happens When Your Lawyer Uses ChatGPT”).
Casos como estos demuestran la necesidad de tener lineamientos que orienten a los actores a un uso responsable. La preocupación no es menor.
La situación descrita ha recibido reacciones en otros medios. En diciembre de 2023, el Reino Unido emitió un documento denominado “Guidance for Judicial Office Holders on the Use of Artificial Intelligence”. Aunque esta guía está dirigida principalmente al personal jurisdiccional, también se espera un nivel de cumplimiento de todos los actores involucrados en un litigio.
Según esta guía, las herramientas de IA generativa pueden ser usadas como instrumentos secundarios (ver sección 6). Así, cualquier información que arroje una herramienta debe ser revisada antes de su uso (ver sección 3), siendo el personal jurisdiccional personalmente responsable del material que es producido bajo su nombre (ver sección 6).
De otro lado, en abril de 2024, el Sillicon Valley Arbitration & Mediation Center emitió lineamientos en el uso de IA arbitrajes denominado “Guidelines on the Use of Artificial Intelligence in Arbitration”. Esta guía es aplicable a los arbitrajes si es que las partes así lo pactan.
Al igual que la guía aplicable en el Reino Unido, esta establece que un árbitro no puede delegar alguna parte de su labor a una herramienta de IA (ver Lineamiento 6). Del mismo modo, esta no puede reemplazar el análisis independiente de los árbitros sobre los hechos, las leyes y las evidencias (ver Lineamiento 6).
Un punto en común entre ambas guías es que la presencia del ser humano es aún fundamental para la labor de razonamiento y toma de decisiones. En otras palabras, la toma de decisiones para resolver disputas aún requiere de humans in the loop. Otras relevantes provisiones también son desarrolladas en los documentos.
No existen lineamientos para el uso de la IA en litigios en el Perú:
La Corte Superior de Justicia de Lima ya ha venido realizando trabajos pilotos con herramientas de IA generativa para la simplificación de actuaciones jurisdiccionales (ver Resolución Administrativa N.º 000620-2023-P-CSJLI-PJ).
Estas herramientas son usadas en procesos de cobranza iniciados por Administradoras de Fondos de Pensiones, para autorización de viaje de menores, medidas de protección en casos de violencia contra la mujer e integrantes del grupo familiar, rectificación de partidas, exoneración de alimentos por causal de fallecimiento del menor alimentista, elaboración de autos de endose electrónico o proyección de autorizaciones de pago, así como para la preparación de propuestas de autos de suspensión o conclusión de procesos por causal de fallecimiento de alguna de las partes mediante el robot asistente “Justo” (ver Resolución Administrativa N.º 000672-2023-P-CSJLI-PJ y Resolución Administrativa N.º 787-2023-P-CSJLI-PJ).
Por su parte, la Corte Superior de Justicia de Lima Norte también ha usado el robot asistente “Justo” (ver Resolución Administrativa N.º 000273-2022-CE-PJ). De otro lado, ha implementado la herramienta “Amauta.Pro”, que tiene por objeto la elaboración de resoluciones judiciales en casos de violencia contra la mujer.
Pese a las notables discusiones en relación con el adecuado uso de la IA en el Poder Judicial, y a los esfuerzos en implementar progresivamente la IA para la eficiencia del sistema de justicia, en el Perú aún no se han publicado pautas que guíen a los actores a un uso responsable y adecuado de la IA en el marco de litigios.
Como parte de un trabajo de investigación en nuestro equipo de solución de controversias, recientemente remitimos solicitudes de acceso a la información al Poder Judicial, así como a algunas Cortes Superiores de Justicia de Lima. Consultamos si existía algún documento, sin importar su denominación, en fase de proyecto o definitivo, que sirviera de guía para los jueces y personal jurisdiccional sobre el uso adecuado de herramientas de IA durante la ejecución de sus labores. El resultado fue el siguiente:
- El Poder Judicial respondió que “no han emitido, ni se encuentran implementando, documento alguno que sirva de guía para sus Jueces y personal jurisdiccional que laboran con ellos” (ver Carta N.º 001669-2024-SG-GG-PJ).
- Las Cortes Superiores de Justicia de Lima Sur y Lima Este tampoco cuentan con guías o lineamientos (ver Oficio N.º 000256-2024-P-LTYAPI-PJ e Informe N.º 000474-2024-CI-UDP-GAD-CSJLE-PJ). Curiosamente, el Juzgado Civil Transitorio de San Juan de Miraflores (órgano que forma parte del distrito judicial de Lima Sur), ya ha recurrido a una conocida herramienta de IA Generativa para el ejercicio de un cálculo matemático necesario para la emisión de una sentencia (ver sentencia de segunda instancia del 27 de marzo de 2023, emitida en el Exp. N.º 52-2022). El uso de la herramienta fue reconocida y declarada por el Juez en la sentencia.
- La Corte Superior de Justicia de Lima ha implementado un Laboratorio de Inteligencia Artificial con carácter permanente. Aprobado el 2 de octubre de 2023 por Resolución Administrativa N.º 000620-2023-P-CSJLI-PJ, este laboratorio tiene por objeto, entre otros, “desarrollar capacidades y conocimientos en el uso responsable y ético de la Inteligencia Artificial”. También han ejecutado labores significativas descritas en párrafos siguientes. Sin embargo, dicha Corte no cuenta aún con directrices públicas y claras que orienten al personal jurisdiccional y a otros actores sobre el uso responsable y ético de la IA (ver Memorando N.º 001926-2024-UPD-GAD-CSJLI-PJ).
- Por su parte, la Corte Superior de Justicia de Lima Norte también aprobó la implementación de Laboratorio de Inteligencia Artificial (ver Resolución Administrativa N.º 164-2024-P-CSJLIMANORTE-PJ). Sin embargo, esta Corte indicó tener “un prototipo que se encuentra en fase inicial de elaboración”, cuya información aún no podía ser compartida porque los lineamientos no han sido culminados (ver Carta N.º 000002-2024-CRD-USJ-GAD-CSJLIMANORTE-PJ).
De otro lado, nuestra búsqueda no identificó que se hayan publicado lineamientos para otros actores de un litigio.
Al margen del loable esfuerzo de las distintas Cortes, es preocupante que el Poder Judicial no haya trazado un plan institucional y orgánico que tenga como objetivo aprobar lineamientos que sean aplicados por todo el personal jurisdiccional del país, y por todos los actores en un litigio.
Reflexión final:
El uso de herramientas institucionales de IA es una realidad en el Perú. Y frente a ausencia de herramientas institucionales, es probable que actores en un litigio recurran a otras que se encuentren disponibles en el mercado (por ejemplo, IA generativa) con miras a promover la eficiencia de sus labores. El caso del Juez que recurrió a una conocida herramienta de IA Generativa para un cálculo matemático confirma esta posición.
En uno u otro caso, son necesarios lineamientos públicos dirigidos a todos los actores, que marquen pautas para un adecuado uso de la IA.
La preocupación expresada en esta nota no es aventurada. La Ley de Inteligencia Artificial de la Unión Europea ha calificado de “alto riesgo” a aquellos sistemas de IA destinados a la administración de justicia (ver Recital 61). Similar posición ha tenido la Corte Superior de Justicia de Lima Norte (ver Considerando Octavo de la Resolución Administrativa N.º 164-2024-P-CSJLIMANORTE-PJ). La calificación es justificada, en tanto su uso en este campo puede tener efectos en los derechos de las partes y en la democracia.
El uso de la IA en resolución de disputas debiera ser limitado a actividades que no interfieran con la eficacia del proceso. Lineamientos claros son necesarios para aprovechar las bondades de la IA, evitando negativas consecuencias, conocidas y desconocidas.
___
Agradezco la importante colaboración de Camila Patiño Patroni, quien es parte de nuestro equipo de solución de controversias de nuestra firma Benites, Vargas & Ugaz, por su apoyo en la investigación para la preparación de esta nota.