Por: Mtro. Rodolfo Guerrero Martínez (México).

En la era de la transformación digital, el sistema judicial se enfrenta a una crisis de eficiencia estructural, marcada por la saturación de casos y la escasez de recursos. De hecho, los tribunales en todo el mundo se encuentran tensionados y afrontan la necesidad de hacer frente a asuntos acumulados.

Esta situación se manifiesta en demoras significativas; por ejemplo, el tiempo medio de resolución en asuntos civiles y mercantiles en la Unión Europea es de 237 días. A esto se añade que los altos costes procesales, que pueden constituir entre el 10% y el 50% del valor de los litigios, agravan la desigualdad de acceso a la justicia.

Ante este panorama, la inteligencia artificial (IA) surge como una solución disruptiva, prometiendo una justicia más accesible, rápida y económica. No obstante, esta integración plantea dilemas éticos, legales y sociopolíticos que exigen una evaluación detallada, centrándose los debates actuales en la salvaguarda de la imparcialidad, la transparencia, la explicabilidad y la supervisión humana en las decisiones.

1) La eficiencia algorítmica y los avances de la justicia predictiva

Por un lado, la IA ofrece oportunidades tangibles para optimizar recursos limitados. Las herramientas de IA se utilizan en funciones diversas, desde la tramitación procesal y el archivo electrónico (e-filing) hasta el análisis de grandes cantidades de datos.

En particular, la justicia predictiva emplea metodologías avanzadas como el Procesamiento de Lenguaje Natural (PLN) y el análisis predictivo. Estas técnicas han demostrado una alta eficacia en la predicción de resultados judiciales. Por ejemplo, se ha utilizado el PLN para predecir decisiones en la Corte Europea de Derechos Humanos con una precisión del 79%, y modelos predictivos han pronosticado el resultado de litigios civiles con una precisión superior al 80%. Además, los sistemas de apoyo a la toma de decisiones pueden reducir el tiempo de decisión de los jueces en aproximadamente un 30%.

Sin embargo, el avance de la tecnología no significa necesariamente el reconocimiento de entidades artificiales como sujetos legales. En este orden, el caso Thaler v. Vidal, 43 F.4th 1211 (Fed. Cir. 2022), abordó si un sistema de software de IA (DABUS) podía ser considerado un inventor bajo la Ley de Patentes de EE. UU.

De esta forma, el tribunal determinó que la ley requiere que los inventores sean individuos, lo que, de acuerdo con el texto estatutario, significa personas naturales o seres humanos. Por consiguiente, este caso sienta un precedente crucial al confirmar que, en el ámbito de la propiedad intelectual, la agencia creativa legalmente reconocida sigue siendo exclusivamente humana.

2) Riesgos algorítmicos y el límite constitucional al control tecnológico

A pesar de las promesas de eficiencia, la IA introduce riesgos inherentes, especialmente en la valoración de la prueba y la toma de decisiones judiciales, ámbitos que comprometen derechos fundamentales.

          a) Opacidad y sesgo en la decisión predictiva

En primer lugar, la IA puede perpetuar o exacerbar las desigualdades existentes si los sistemas son entrenados con datos históricos que reflejan sesgos y discriminación. La opacidad algorítmica (black box problem) impide comprender cómo se generan los resultados, afectando el derecho a un proceso con las debidas garantías.

Un caso emblemático de este dilema es State v. Loomis (2016), donde se cuestionó el uso de la herramienta de evaluación de riesgo COMPAS (Perfiles de gestión de delincuentes penitenciarios para sanciones alternativas) en la sentencia penal. El acusado, Eric L. Loomis, argumentó que el uso de COMPAS violaba su derecho al debido proceso porque el carácter propietario del software impedía evaluar su precisión y porque los datos podían incluir sesgos de género.

La corte sostuvo que COMPAS es simplemente una herramienta disponible para el tribunal, y su uso adecuado está sujeto a limitaciones: el juez debe observar cautelas y asegurarse de que la evaluación de riesgo no sea el factor determinante de la sentencia, sino que debe estar respaldada por otros factores independientes.

En un contexto civil, aunque el papel de la IA no se detalla, casos como Saas v. Major, Lindsey & Africa, LLC, et al. ilustran el entorno legal de disputas por presunta discriminación. El asunto, que involucró alegaciones de discriminación en la remisión de empleo, subraya la importancia de la revisión judicial en alegaciones donde la actuación de entidades externas (agencias de empleo) podría estar mediada por procesos automatizados.

       b) El conflicto con la primera enmienda y la justicia low-cost

Por otro lado, el uso de algoritmos para curar contenido y la regulación estatal sobre plataformas de comunicación han generado controversia, vinculando la moderación de contenido con la libertad de expresión.

En Moody v. NetChoice, LLC (2024), el Tribunal Supremo de EE. UU. analizó leyes de Florida y Texas que regulaban la moderación de contenido (filtrado, priorización, etiquetado) en plataformas sociales. El Tribunal determinó que la curación de contenido realizada por plataformas como Facebook (News Feed) y YouTube (página de inicio) es una actividad expresiva protegida por la Primera Enmienda, equivalente a la discreción editorial.

Las leyes estatales que intentaban reajustar el ámbito expresivo forzando a las plataformas a presentar puntos de vista que preferirían excluir interfieren con la expresión protegida. El tribunal concluyó que las restricciones de Texas sobre la selección, ordenación y etiquetado de publicaciones no son susceptibles de prosperar bajo el escrutinio de la Primera Enmienda, al basarse en un grave malentendido del precedente.

De forma complementaria, en NetChoice, LLC v. Bonta (9th Cir. 2024), se abordó el desafío constitucional contra la Ley de Código de Diseño Apropiado para la Edad de California (CAADCA), destinada a proteger a menores en línea. El tribunal concluyó que el requisito de generar informes DPIA (Evaluación de Impacto de la Protección de Datos), que obliga a las empresas a compeler la expresión sobre riesgos y a actuar como censores basados en el contenido, debe ser sometido a escrutinio estricto.

Esto se debe a que la ley compelía a hablar sobre temas controvertidos y convertía a actores privados en censuradores del discurso. Finalmente, se afirma que las opiniones subjetivas forzadas por CAADCA no son mero discurso comercial, sino discurso no comercial entrelazado con discurso protegido.

De tal modo que, estos casos reflejan una tensión crítica con el concepto de justicia low-cost, que prioriza la eficiencia y la estandarización mediante la tecnología. Sin embargo, la simplificación de procesos mediante IA podría llevar a un tratamiento superficial de los casos, afectando el rigor judicial y, como demuestran los casos de moderación, diluyendo la calidad del análisis constitucional de fondo.

 

3) Regulación, imparcialidad y control judicial

A fin de cuentas, la IA en la justicia plantea retos fundamentales que exigen un marco regulatorio robusto y ético. En lo sucesivo se presentarán algunos de ellos.

       a) El rol inexcusable del juez humano

Es imprescindible que la IA no sustituya la función valorativa del juez. La función jurisdiccional demanda el conocimiento exclusivo del órgano judicial, impidiendo la delegación de dichas competencias a sujetos artificiales o programas informáticos.

Por lo tanto, el principio del juez natural predeterminado por la ley se consubstancia con el derecho a que los expedientes judiciales sean decididos por un juez o magistrado persona (homo sapiens). La IA debe funcionar como una herramienta complementaria y de apoyo para el análisis de datos.

       b) Control, antitrust y seguridad nacional

Adicionalmente, el impacto de los gigantes tecnológicos en el sistema legal se siente en otras áreas críticas. El caso United States v. Google LLC ha abordado litigios de antimonopolio centrados en la naturaleza excluyente de ciertos acuerdos y contratos de la compañía.

Dicho tipo de acciones ilustran la necesidad de que el sistema judicial mantenga la competencia y evite que la concentración de poder tecnológico, incluso en mercados adyacentes como el de la publicidad en búsquedas, amenace la equidad.

Por otro lado, la preocupación por el control extranjero de plataformas clave subraya la dimensión geopolítica de la tecnología y la justicia. En TikTok Inc. v. Garland, por ejemplo, el litigio se centró en la Ley que aborda el control por parte de adversarios extranjeros de un medio de comunicación sustancial. La ley aplicó de manera estrecha (narrowly) al limitarse a dicho control y ofrecer una exención de desinversión, abordando los riesgos de seguridad nacional que el Congreso buscaba contrarrestar.

      c) El camino hacia la interoperabilidad

Finalmente, para que la IA maximice su potencial en la reducción de la brecha de acceso a la justicia, la interoperabilidad (consistencia generalizada en el diseño tecnológico y los procesos) debe estar en la vanguardia de los esfuerzos. La falta de interoperabilidad legal y tecnológica obstaculiza la escalabilidad de las herramientas de IA, limitando su impacto y dejando los avances en el ámbito local.

 

Conclusión general

En suma, aunque la inteligencia artificial constituye una herramienta estratégica para enfrentar la saturación y los retrasos que aquejan a los órganos jurisdiccionales, su incorporación demanda una ponderación cuidadosa. Si bien la optimización de procesos es deseable, resulta indispensable que ésta no se realice en detrimento de la calidad, la imparcialidad y los derechos fundamentales.

Por lo tanto, es imprescindible que la tecnología se oriente a robustecer el Estado de derecho y no a debilitarlo, preservando siempre el equilibrio entre innovación y garantías jurídicas.

 

Fuentes de consulta

Aguilar Cabrera, D. A. (2024). La inteligencia artificial en la justicia: protocolos para la presentación y la valoración de prueba digital obtenida mediante IA. Revista Oficial del Poder Judicial, 16(22), 475–497. https://doi.org/10.35292/ropj.v16i22.1018

Blázquez Ruiz, F. J. (2022). La paradoja de la transparencia en la IA: Opacidad y explicabilidad. Atribución de responsabilidad. Revista Internacional de Pensamiento Político, 17, 261–272.

Cantero Gamito, M. (2024). Acceso a la justicia en tiempos de IA: ¿hacia una justicia low-cost? Revista CIDOB d’Afers Internacionals, (138), 51–71. https://doi.org/10.24241/rcai.2024.138.3.51

Casos judiciales

Moody v. NetChoice, LLC, 603 U.S. ___ (2024).

NetChoice, LLC v. Bonta, No. 23-2969 (9th Cir. Aug. 16, 2024).

Saas v. Major, Lindsey & Africa, LLC, et al., Civil No. 1:23-cv-02102-JRR (D. Md. May 10, 2024).

State v. Loomis, 2016 WI 68, 375 Wis. 2d 200, 895 N.W.2d 380 (2016).

Thaler v. Vidal, 43 F.4th 1211 (Fed. Cir. 2022).

TikTok Inc. v. Garland, No. 24-1111 (D.C. Cir. 2024).

United States v. Google LLC, No. 1:20-cv-03010-APM (D.D.C. 2024).

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.