Por: Mtro. Rodolfo Guerrero Martínez (México).
La integración de sistemas inteligentes en los despachos judiciales ha dejado de ser una proyección futurista para consolidarse como un pilar de la modernización administrativa. No obstante, este tránsito hacia la celeridad digital no está exento de fricciones con la esencia humanista del proceso.
De esta forma, la operatividad judicial contemporánea se enfrenta al desafío de equilibrar la potencia del análisis masivo de datos con la prudencia necesaria para no despojar al Derecho de su componente orgánico y valorativo. En este sentido, Fallas Barboza (2024) subraya que la capacidad de la inteligencia artificial para procesar patrones y predecir resultados ofrece un potencial sustancial para elevar la precisión y accesibilidad en la función jurisdiccional.
Bajo esta premisa, resulta fundamental defender que la búsqueda de la eficiencia tecnológica no debe interpretarse como un permiso para erosionar la sensibilidad jurídica, la cual exige una valoración individualizada de cada caso frente a la frialdad de los promedios estadísticos.
Dicho de otro modo, el sistema puede acelerar la gestión de expedientes, pero la justicia sustantiva depende de un juicio crítico capaz de percibir matices que escapan a la lógica binaria del algoritmo.
1.-Algoritmos de análisis de microexpresiones faciales para detectar contradicciones lingüísticas en interrogatorios judiciales
El uso de tecnologías diseñadas para escrutar la gestualidad de los declarantes introduce un debate ético sobre la cientificidad de la prueba testimonial. Estas herramientas se basan en la premisa de que las reacciones involuntarias del rostro revelan intentos conscientes de ocultamiento emocional.
Sobre este punto, expresiones faciales, que poseen una duración efímera de entre 0.04 y 0.20 segundos, pueden servir para diferenciar la veracidad de la mentira respecto a futuras intenciones maliciosas (Matsumoto & Hwang, 2018).
Desde esta perspectiva, se debe advertir que delegar la credibilidad de un testigo a un software de análisis muscular supone un riesgo de pseudociencia que ignora factores contextuales, como el estrés o las diferencias culturales en la expresión del dolor.
Específicamente, el uso de algoritmos que prometen un 73% de precisión en la detección de mentiras resulta inaceptable como prueba de cargo determinante, dado que un margen de error tan amplio choca frontalmente con la presunción de inocencia y el estándar de duda razonable.
2.-Amenazas a la reserva de humanidad por la opacidad algorítmica de cajas negras en resoluciones automatizadas
La transición hacia una justicia mecanizada pone en tela de juicio el principio de reserva de humanidad, entendido como el derecho de los ciudadanos a que sus vidas sean juzgadas por seres humanos capaces de ejercer discrecionalidad ética. El obstáculo técnico más severo para este derecho es la arquitectura de los sistemas de aprendizaje profundo, cuya lógica de procesamiento se vuelve inescrutable para el usuario final.
Al respecto, Lobo Rodríguez, (2024) plantea si las formas predictivas para la imposición de medidas cautelares podrían contravenir los derechos fundamentales de las partes involucradas en el proceso.
Bajo esta lógica, se sostiene que la opacidad algorítmica de estas cajas negras impide que el juez motive adecuadamente su sentencia, transformando el razonamiento jurídico en una mera aceptación ciega de un resultado matemático.
En ese sentido, se resalta el caso notable de Loomis contra el estado de Wisconsin, quedó evidenciado que la utilización del software Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) dificultaba que la defensa pudiera cuestionar la metodología empleada para evaluar el riesgo, tal como señala Notaro, L. (2023). Este hecho vulneró el debido proceso, ya que la condena se fundamentó en un secreto comercial resguardado por derechos de propiedad intelectual.
3.-Conflicto del sesgo de automatización frente a la sensibilidad jurídica requerida en procesos de mediación familiar
En el área del Derecho de Familia, la resolución de conflictos demanda una inteligencia emocional que el código informático no puede replicar. El fenómeno del sesgo de automatización ocurre cuando el mediador o el juez otorgan una confianza excesiva a la máquina, asumiendo que su neutralidad técnica es sinónimo de justicia.
La investigación especializada destaca que, en las plataformas de resolución de disputas en línea, el uso de la inteligencia artificial debe basarse en principios de objetividad, transparencia y, crucialmente, control del usuario, reconociendo que los sistemas carecen de la flexibilidad y la capacidad de respuesta emocional necesaria (Kirillova et al., 2025).
Siguiendo esta línea de pensamiento, se concluye que la deshumanización del proceso de mediación ignora que el conflicto familiar es, ante todo, un fenómeno intersubjetivo donde la resiliencia y el perdón no son cuantificables. A manera de ejemplo, un algoritmo de mediación podría sugerir un régimen de visitas basado exclusivamente en la optimización de tiempos, pero ser incapaz de detectar una dinámica de violencia vicaria o de comprender las necesidades afectivas específicas de un menor de edad.
4.-Limitaciones del aprendizaje automático para procesar el lenguaje natural figurado en contextos de desigualdad socioeconómica
Es necesario considerar que las herramientas de Procesamiento de Lenguaje Natural (PLN) presentan fallas críticas cuando se enfrentan a realidades sociales marginadas. La tecnología se entrena mayoritariamente con bases de datos formales, lo que genera una desconexión con el lenguaje informal, las jergas regionales o los modismos propios de sectores vulnerables.
Dicho marco ha evidenciado que el aprendizaje automático puede reproducir y agravar la discriminación si los datos de entrenamiento reflejan sesgos históricos de raza, clase o género (O’Neil, 2016). Resulta imperativo destacar que el uso de estas herramientas sin una supervisión crítica puede convertir al sistema de justicia en una máquina de exclusión social que penaliza la pobreza.
A modo de muestra, si un algoritmo utiliza variables aparentemente neutras como el código postal para predecir la peligrosidad, terminará asignando puntuaciones de riesgo más elevadas a personas de minorías étnicas o barrios deprimidos, perpetuando así un ciclo de estigmatización que la sensibilidad humana del juez debería identificar y neutralizar.
Conclusión general
La incorporación de la inteligencia artificial en el ámbito judicial debe entenderse como una herramienta de apoyo, sin reemplazar el pensamiento crítico y el discernimiento ético del ser humano.
Aunque la tecnología mejora la gestión de información y facilita el acceso a antecedentes, el valor esencial de la función judicial radica en la sensibilidad, la empatía y la interpretación contextual de cada caso. La delegación de decisiones jurisdiccionales a sistemas algorítmicos opacos pone en riesgo las garantías procesales y puede convertir la resolución de controversias en un ejercicio impersonal, desprovisto de consideración por la dignidad humana.
Por ello, la legitimidad de la justicia digital depende de la consolidación de marcos normativos que aseguren transparencia, posibilidad de auditoría y supervisión efectiva por parte de operadores humanos en todas las fases.
Es indispensable avanzar hacia sistemas donde la lógica algorítmica sea comprensible y pueda ser cuestionada, permitiendo una adopción de la tecnología que promueva una justicia ágil, pero también humana y comprometida con la defensa de los derechos fundamentales de la sociedad.
Referencias bibliográficas
Fallas Barboza, A. V. (2024). La inteligencia artificial como herramienta para la valoración de la prueba por parte del juez en el proceso penal. Revista Escuela Libre de Derecho, (11), 88-105.
Kirillova, et al. (2025). Principles of using mediation platforms based on artificial intelligence in resolving family disputes. Interacción y Perspectiva: Revista de Trabajo Social, 15(1), 67-74.
Lobo Rodríguez, G. (2024). Algoritmos predictivos en la justicia penal y otras herramientas de I.A para las medidas cautelares. Revista Escuela Libre de Derecho, (11), 35-50.
Matsumoto, D., & Hwang, H. C. (2018). Microexpressions differentiate truths from lies about future malicious intent. Frontiers in Psychology, 9, 2545.
Notaro, L. (2023). El caso Loomis y la ausencia de valoración individual en la decisión algorítmica. En Justicia algorítmica y neuroderecho. Una mirada multidisciplinar. Tirant lo Blanch.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | Impacto de la justicia algorítmica en la sensibilidad jurídica ante la toma de decisiones jurisdiccionales - marzo 2, 2026
- NCC Radio – Emisión 352 – 02/03/2026 al 08/03/2026 –Eclipse solar alteró el comportamiento de las aves - marzo 2, 2026
- NCC Radio Ciencia – Emisión 352 – 02/03/2026 al 08/03/2026 – Lluvia ácida: contaminación que regresa con graves impactos - marzo 2, 2026




