Por: Mtro. Rodolfo Guerrero Martínez (México).
La justicia contemporánea atraviesa una transformación sin precedentes, en donde la inteligencia artificial ha dejado de ocupar el lugar de promesa tecnológica para instalarse como herramienta concreta en la gestión de expedientes, la clasificación documental y el apoyo a la resolución de conflictos. Esta incorporación no es neutral: modifica el ritmo de trabajo en los tribunales, redistribuye las cargas cognitivas del operador jurídico y plantea preguntas que los marcos normativos vigentes apenas comienzan a responder.
Sin embargo, el análisis de este fenómeno no puede limitarse a sus beneficios en términos de celeridad procesal. Por ejemplo, la legitimidad de la función jurisdiccional descansa en valores que ningún algoritmo reproduce por sí mismo: la equidad, la ponderación de circunstancias particulares, el reconocimiento de la dignidad de quienes acuden al sistema.
Al respecto, la Comisión Europea para la Eficiencia de la Justicia (2018) señala que el despliegue tecnológico en los tribunales debe, estar subordinado a la calidad de la justicia y al respeto irrestricto de los derechos fundamentales de la ciudadanía.
En el presente artículo se desarrollarán cuatro principios que configuran un marco ético mínimo para el uso de la IA en procedimientos judiciales. Cada uno responde a un riesgo concreto y se apoya en instrumentos normativos y casos documentados que permiten comprender sus implicaciones prácticas.
1.-Control humano efectivo
La automatización de tareas mediante modelos de lenguaje masivo introduce un riesgo específico que la literatura especializada denomina sesgo de automatización: la tendencia de los usuarios a validar resultados algorítmicos sin someterlos a análisis crítico propio. En un entorno judicial, este sesgo no es una curiosidad teórica, sino una vulnerabilidad real que puede comprometer la profundidad del razonamiento jurídico y, con ella, la calidad de la decisión.
Para contrarrestar este riesgo, cualquier sistema inteligente que opere en la actividad jurisdiccional debe estar bajo la tutela permanente de un magistrado con capacidad técnica y legal para intervenir en el flujo de trabajo en cualquier momento (Consejo General del Poder Judicial, 2026). Esta supervisión no es meramente formal: implica que el juzgador mantenga una postura activa de revisión, capaz de descartar o corregir sugerencias del sistema cuando estas no se ajusten a la realidad fáctica o normativa del caso.
La revisión de un borrador de providencia generado por herramientas digitales ilustra bien este punto. El juez que firma ese documento no solo valida su redacción, sino su coherencia jurídica. Si el sistema produce un razonamiento erróneo o una conclusión desconectada de los hechos, la responsabilidad de haberlo detectado —y corregido— recae sobre la persona física que lo suscribe.
2.-Responsabilidad judicial exclusiva
La incorporación de sistemas de apoyo a la decisión no redistribuye la titularidad de la función jurisdiccional. Por más que un algoritmo facilite la redacción de informes, sintetice documentos probatorios o sugiera precedentes aplicables, la carga legal y moral de la resolución final permanece sobre la persona física que la suscribe. Este principio no admite excepciones fundadas en la complejidad técnica del sistema o en las limitaciones declaradas por el proveedor.
Un abogado o magistrado incurre en falta deontológica grave si incorpora a sus actuaciones citas legales o referencias jurisprudenciales producidas por una máquina sin verificarlas exhaustivamente en fuentes primarias tal como refiere Artigliere & Losey (2025). El fenómeno de la alucinación —donde el modelo genera texto formalmente coherente pero jurídicamente inexistente— convierte esta verificación en un deber ineludible, no en una práctica recomendable.
La realidad lo confirma con casos concretos de distintas jurisdicciones del mundo anglosajón, resaltando letrados sancionados con multas significativas por presentar escritos que citaban jurisprudencia fabricada por un chatbot. Así mismo, las sanciones impuestas dejan en claro que el sistema jurídico no acepta la delegación de la responsabilidad profesional en un software, ni siquiera como atenuante. El factor humano es el único sujeto a regulación deontológica y el único que responde ante la sociedad por el ejercicio de la función.
3.-Transparencia algorítmica auditable
El modelo de caja negra —donde la lógica interna del sistema es opaca tanto para el usuario como para el justiciable— es incompatible con el derecho a la tutela judicial efectiva y con el principio de publicidad que rige los procedimientos judiciales. Si una decisión ha sido asistida tecnológicamente, las partes afectadas tienen el derecho de conocer qué parámetros determinaron ese resultado y de impugnarlo mediante argumentos técnicos fundados.
Por otro lado, la legitimidad democrática de los tribunales exige que el proceso de razonamiento, aun cuando sea asistido por algoritmos, sea explicable y pueda someterse al escrutinio de expertos independientes. Este requisito no es un freno a la innovación como advierte Solar Cayón (2025), sino la condición que la hace admisible en un Estado de derecho. La auditabilidad convierte la herramienta tecnológica en un instrumento legítimo; sin ella, el riesgo de arbitrariedad técnica es estructural.
Además, la implementación de registros públicos que identifiquen los algoritmos utilizados en los procesos judiciales, junto con una descripción accesible de su lógica operativa, constituye una práctica de transparencia institucional que fortalece la confianza ciudadana en la justicia digital. La transparencia no es un atributo opcional: es una precondición ética del uso legítimo de la IA en este ámbito.
4.-Protección y privacidad de datos judiciales
El tratamiento de información sensible en el marco de procesos judiciales requiere protocolos de seguridad digital de alto rigor. El ingreso de documentos confidenciales en plataformas de inteligencia artificial de uso público expone a las partes a dos riesgos distintos: la reidentificación de personas a partir de datos aparentemente anonimizados, y la incorporación de información protegida al corpus de entrenamiento de modelos comerciales, con consecuencias difíciles de delimitar y aún más difíciles de revertir.
Con respecto a la normativa aplicable se destaca que antes de someter cualquier información judicial a procesos de análisis algorítmico, deben aplicarse mecanismos estrictos de anonimización y seudonimización que impidan la asociación de los datos con personas identificables (Comité Técnico Estatal de la Administración Judicial Electrónica, 2024). La soberanía sobre el dato judicial no es una cuestión técnica secundaria: es una prioridad estratégica del Estado que exige el desarrollo de infraestructuras propias y el control institucional sobre los sistemas empleados.
En última instancia, la prohibición de utilizar asistentes virtuales de acceso público para procesar información sujeta a reserva legal responde a esta lógica. El derecho a la intimidad de quienes intervienen en un proceso judicial y la seguridad jurídica del expediente electrónico no pueden quedar subordinados a la conveniencia operativa de una herramienta externa.
Conclusión
El desarrollo de un marco ético para el uso de la inteligencia artificial en los procedimientos judiciales no es un ejercicio académico: es una necesidad institucional urgente. Enmarcando los cuatro principios analizados —control humano efectivo, responsabilidad exclusiva del operador, transparencia algorítmica y protección de datos— no operan de forma aislada, se integra un sistema de garantías cuya coherencia depende de que todos sus componentes se respeten simultáneamente.
Así también, la tecnología tiene el potencial de liberar al juzgador de tareas repetitivas y administrativas para que concentre su esfuerzo intelectual donde resulta insustituible: el discernimiento ético, la valoración de circunstancias particulares y la ponderación de derechos en tensión. Pero ese potencial solo se realiza cuando la automatización está contenida por una gobernanza clara que antepone la responsabilidad y la privacidad a la simple búsqueda de eficiencia operativa.
Finalmente, la capacitación continua de los operadores jurídicos en competencias digitales críticas y la consolidación de una cultura de validación rigurosa son condiciones necesarias para que la inteligencia artificial funcione como aliada del Estado de derecho y no como factor de erosión de las garantías procesales. La justicia del futuro será, inevitablemente, digital. Será justicia, en cambio, solo si preserva su fundamento humano.
Referencias bibliográficas
Artigliere, R., & Losey, R. C. (2025). The Future Is Now: Why Trial Lawyers and Judges Should Embrace Generative AI Now and How to Do it Safely and Productively. American Journal of Trial Advocacy, 48(323).
Comisión Europea para la Eficiencia de la Justicia (CEPEJ). (2018). Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y su entorno. Consejo de Europa.
Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE). (2024). Política de uso de la Inteligencia Artificial en la Administración de Justicia v1.0. Ministerio de Justicia de España.
Consejo General del Poder Judicial. (2026). Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional. Boletín Oficial del Estado.
Solar Cayón, J. I. (2025). Inteligencia artificial jurídica e imperio de la ley. Tirant lo Blanch.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | Marco ético para la IA en los procesos judiciales - abril 27, 2026
- La poética de la basura en la cultura del exceso - abril 24, 2026
- Escuelas: clave contra obesidad infantil en América - abril 24, 2026




