Por: Rodolfo Guerrero Martínez (México).
La tecnología impacta de distintas formas a la población, desde otorgar facilidades para la búsqueda de información, el poder acceder a una justicia pronta y expedita. Sin embargo, en esa progresividad tecnológica es indispensable analizar los instrumentos que facilitan esas oportunidades y, a su vez, las vulneraciones en la esfera más sensible de cualquier individuo, haciendo referencia a sus datos personales, siendo además utilizados en diferentes áreas por la inteligencia artificial, como realizar una controversial justicia predictiva.
En el presente artículo (1) realizaremos una aproximación de la inteligencia artificial en la impartición de justicia desde la experiencia internacional.
Inteligencia artificial e impartición de Justicia
Para comprender la progresividad tecnología en beneficio de la esfera jurídica, debemos entender primero cómo se relacionan estos dos tópicos; para ello es necesario apreciar al Derecho como un sistema de información que se construye de cierta forma de comprender la realidad, que posee su propia racionalidad, sirve para identificar controversias entre tópicos diversos y localizar soluciones a problemáticas diferentes.
Ahora bien, los dos tópicos relacionados son la IA, que comprende el intento de desarrollo de inteligencia y procesos implícitos (2) llevado cabo por las computadoras, es decir, sintetiza y automatiza las tareas que son fundamentalmente intelectuales y con ello visualizamos cuatro áreas enormes: 1) la resolución de problemas y búsqueda; 2) el aprendizaje automático; 3) manifestación del conocimiento por medio de sistemas y; 4) la IA distribuida (donde observamos temas como la robótica y el reconocimiento del habla).
En correlación a lo comprendido, sumamos el segundo tema que es la impartición de justicia, donde comprendemos aquella función pública del Estado, en donde su ejercicio resulta en la preservación del Estado de Derecho y la seguridad jurídica.
La problemática entre estos dos temas resulta en una vulneración de derechos fundamentales hacia los justiciables, debido a que podría sustituir y/o reemplazar la función del operador jurídico a través de un sistema experto, el cual refleja la impresión de los algoritmos, los cuales son la base esencial de cualquier sistema de IA. En el caso de la sustitución del juez resulta erróneo, ya que en la materia penal y familiar se desempeñan derechos subjetivos, los cuales requieren obligadamente la interpretación del juez para la toma de decisión judicial (3).
Existen diversos casos que amplían lo expuesto, ya que se manifiesta el sesgo algorítmico, comparable con el error judicial. Por ejemplo, el caso de perfiles de administración de delincuentes correccionales para sanciones alternativas (COMPAS), la cual es una herramienta de administración de casos y soporte de decisiones propiedad de Equivant que se aplica por los tribunales en los Estados Unidos de Norteamérica. Dicha herramienta se conforma a partir de un cuestionario de 137 preguntas respondidas por el acusado o información extraída de antecedentes penales, las cuales incluyen estatus económico, historial de maltrato familiar, servicios domésticos como el acceso telefónico.
En esa lógica, el sistema experto genera una especie de “oráculo” en el que varios Estados de Norteamérica se introdujeron en la experimentación con el uso de la IA para predecir el riesgo de reincidencia de los acusados y, a su vez, considerar dicha evaluación al momento de dictar la sentencia. Generando así diversas situaciones polémicas como el exonerar a los jueces de su función tras la comodidad que genera la toma de decisión exclusivamente en el puntaje establecido en el algoritmo, y no su uso solo como herramienta en la toma de decisión (como elemento de convicción) con lo que se replicará en la decisión una injusticia algorítmica, y se perdería el elemento de valoración y raciocinio humano (4).
Al respecto de los sesgos, el sistema experto compas evidenció discriminación algorítmica al tener sesgo racial, esto al generar una tendencia negativa en su funcionamiento de alto riesgo a personas afrodescendientes, “el porcentaje de acierto a la hora de determinar el riesgo de reincidencia, aunque similar, era superior en el caso de personas blancas (un 67%), frente al 63,8% para las personas negras” (5).
Entonces, un principio fundamental de la inteligencia artificial debe ser el respeto a la dignidad humana, comprendiendo que es todo ser humano, que desde inicio de su existencia hasta su muerte natural es titular de derecho, denominados naturales o humanos sobre los cuales nadie puede suprimir; este principio debe estar dentro de la esfera ética donde el respeto impere hacia al humano evitando sea violentado por las tecnologías “autónomas”. Con ello también, gozar del reconocimiento de la protección de datos personales, estableciendo límites por medio de mecanismos como el principio de minimización, el derecho al consentimiento de los interesados sobre el tratamiento de su información personal, y demás derechos que otorguen permiso en cuanto a la toma de decisión automatizada.
Lo anterior, resulta trascendental en el contexto nacional y probablemente de otras latitudes cuando se menciona la implementación de la justicia digital. Inicialmente se interpreta de manera romántica donde solo existirá la eficacia y el apego al razonamiento conforme a Derecho, sin embargo, se carece de plataformas jurídicamente responsables, explicaremos este aspecto en el próximo punto.
Justicia Predictiva
El indicar negligentemente que la progresividad tecnológica solo consiste en generación de infraestructuras y adquisición o elaboración de sistemas informáticos es como aplicar la ley de manera dura y sin interpretación del caso –lex dura lex– olvidando las fuentes formales del Derecho como la jurisprudencia, el marco internacional de derechos humanos, que tienen como elemento central a la persona.
Actualmente, un marco de referencia hacia el inicio de la aplicación de las tendencias de una agenda digital lo observamos en España donde ha decidido comenzar a usar la inteligencia artificial en la administración de justicia (6) con el fin de consultar de forma rápida y efectiva la jurisprudencia o los sumarios complejos.
No obstante, como hemos dicho, el elemento central, que es la persona, podría haberse olvidado en la ecuación, por ejemplo, en el caso anterior donde la administración de justicia aplicando IA genera desconfianza hacia la justicia entre los ciudadanos por la presunta falta de imparcialidad de los magistrados por el hecho de que, en toda decisión jurídica, hay un elemento humano que puede poner en riesgo el análisis objetivo de los hechos. Aprovechando esa situación, en países de tradición jurídica anglosajona, han empezado a proliferar empresas que emplean la inteligencia artificial para analizar las resoluciones dictadas por un mismo juez y determinar así un patrón sobre los criterios que sigue a la hora de juzgar.
Ahora bien, la justicia predictiva, como el modelo deseado para cualquier nación, es una pretensión equivocada, haciendo referencia al predictive coding, lo cual se encuentra lejano al sistema de justicia que hace referencia la famosa película Minority Report.
El uso del pasado para el futuro es un auxilio fundamental para la jurisdicción y también puede ayudar a los jueces en la inclusión de su decisión en el ámbito de los precedentes.
Precisamente en este marco de estudio, es indispensable centrarse en las exigencias de seguridad y considerar la inexistencia de que las máquinas son infalibles, debemos tener en cuenta lo siguiente de los principios fundamentales de la inteligencia artificial:
(I) Libre y sin prejuicios. Evitar el uso de conjuntos de datos sesgados y controlar la posible discriminación algorítmica utilizando métricas avaladas por expertos humanos, salvaguardando y tutelando en primer término la dignidad humana;
(II) Transparencia, explicación y cumplimiento. Proporcionar información significativa para sensibilizar a las personas en el uso de la IA, explicarles cómo los sistemas se vinculan con los resultados y facilitar las maneras de desafiar esos resultados. Así también, en el tema de cumplimento, precisar la responsabilidad de las decisiones tomadas por sistemas autónomos. Localizar, por ejemplo, que las compañías brinden ayuda a sus clientes y que garanticen el desarrollo del software de acuerdo con las normas legislativas y estándares de la industria;
(IV) Conocer el algoritmo y hacerlo transparente. Confiar en los sistemas inteligentes que se desarrollan es fundamental. Resulta primordial el conocer los algoritmos que se crean y poder explicar su funcionamiento es la base de “la explicabilidad” de los mismos. Sin embargo, la transparencia algorítmica es obstaculizada con la protección a la propiedad intelectual que tienen las empresas sobre sus algoritmos. Se propone que mediante auditoría se formalicen las responsabilidades tras el acceso al código, a los resultados y sin revelar el código;
(V) Seguridad y privacidad. Todo individuo tendrá derecho a no ser objeto de una decisión basada únicamente en un tratamiento de datos personales automatizado, que pueda perjudicar, discriminar o excluir; y
(VI) Orientación e impacto positivo. Incentiva que los sistemas de inteligencia artificial altamente autónomos estén alineados con valores y comportamientos humanos, siendo compatibles con los ideales de dignidad humana, derechos, libertades y diversidad cultural.
Ahora bien, cabe recordar que, la inteligencia artificial debe comprenderse como una combinación de algoritmos generados con el propósito de replicar las capacidades del ser humano, por tal motivo, en el siguiente apartado, discurrimos sobre los sistemas de justicia inteligentes.
Notas
(1) El presente artículo escrito por un servidor es parte de la publicación intitulada “Aproximaciones de la inteligencia artificial y oportunidades de la protección de datos personales en el derecho mexicano” que fue publicada en la edición número 12 de la Revista Praxis del Tribunal Federal de Justicia Administrativa (https://www.tfja.gob.mx/investigaciones/pdf/r_32-trabajo-1.pdf), a continuación, comparto algunas de las fuentes de consulta:
(2) El aprendizaje implícito consiste en un proceso que acontece sin consciencia o esfuerzo, mediante el cual se adquiere información estructurada a través de la exposición repetida: Reber, Arthur, S., “Implicit learning of artificial grammars”, Journal of Verbal Learning and Verbal Behavior, vol. 6, número 6, diciembre de 1967, pp. 77, 317-327.
(3) La decisión judicial está apoyada por algoritmos en ciertas partes del mundo, por ejemplo, el algoritmo Prometea ha registrado su trabajo en la Corte Interamericana de Derechos Humanos, en Argentina y Colombia. Estevez, Elsa, Linares Lejarraga, Sebastián y Fillotrani, Pablo, Prometea. Transformando la administración de justicia con herramientas de inteligencia artificial, Washington, d. c., Banco Interamericano de Desarrollo, 2020, p. 67, véase en: https://publications.iadb.org/publications/spanish/document/PROMETEA-Transformando-la-administracion-de-jus-ticia-con-herramientas-de-inteligencia-artificial.pdf.
(4) Hillman, Noel L., The Use of Artificial Intelligence in Gauging the Risk of Recidivism, American Bar Association, 2019, párrafo 1, véase en: https://www.americanbar.org/groups/judicial/publications/judges_journal/2019/winter/the-use-artificial-intelligence-gauging-risk-.
(5) Dieterich, W. et. al., como se citó en Hernández, María, “Inteligencia artificial y Derecho Penal”, Revista Actualidad Jurídica Iberoamericana, número 10, 2019, p. 825.
(6) Ley 18/2011, de 5 de julio, encargada de regular el uso de las tecnologías de la información y la comunicación en la Administración de Justicia, y a la mención expresa en relación con las actuaciones automatizadas, véase en: https://www.boe.es/buscar/doc.php?id=BOE-A-2011-11605.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | Principios rectores de la Inteligencia Artificial - noviembre 18, 2024
- NCC Radio – Emisión 285 – 18/11/2024 al 24/11/2024 – La UNAM y la Comisión de Búsqueda capacitan a estudiantes en desapariciones - noviembre 18, 2024
- NCC Radio Cultura – Emisión 285 – 18/11/2024 al 24/11/2024 – La influencia italiana en la arquitectura de Guayaquil en Ecuador - noviembre 18, 2024