Por: Mtro. Rodolfo Guerrero Martínez (México).

La incorporación de la inteligencia artificial (IA) en la práctica jurídica ya no es un escenario por anticipar: es una realidad en curso que modifica los modos de gestión del conflicto y obliga a replantear los fundamentos éticos del ejercicio profesional. El asunto no se reduce a ganar tiempo en la elaboración de escritos o en la búsqueda documental, sino a comprender qué cambia —y qué no puede cambiar— cuando una máquina interviene en procesos que históricamente han exigido discernimiento humano.

Una referencia conceptual útil para encuadrar este fenómeno es la denominada Paradoja de Moravec: mientras las tareas que consideramos complejas —como el razonamiento abstracto o el cálculo formal— resultan computacionalmente sencillas para los sistemas de IA, las habilidades que parecen elementales —leer el estado emocional de una persona, calibrar el contexto social de un conflicto, ponderar la equidad en situaciones de vulnerabilidad— siguen siendo enormemente difíciles de replicar (Código Ético Iberoamericano, 2025). Esta asimetría es, precisamente, el punto de partida desde el cual el operador jurídico debe relacionarse con estas herramientas.

El presente artículo no pretende ser una advertencia apocalíptica, más bien, tiene como objetivo identificar con claridad cuatro principios que deben orientar el uso de la IA en el ámbito legal, acompañados de los fundamentos normativos y los ejemplos concretos que los justifican.

 

1.-Supervisión humana y responsabilidad profesional indelegable

Los sistemas de IA que operan en entornos judiciales no pueden funcionar al margen del control de una persona física. Esto no es solo una exigencia ética abstracta: está regulado. Tanto la normativa europea como los lineamientos iberoamericanos establecen que los sistemas de IA no pueden tomar decisiones autónomas en funciones que afecten derechos fundamentales —valoración de la prueba, interpretación sustantiva de la ley, determinación de responsabilidad— sin supervisión humana directa (CGPJ, 2026). Permitir que la tecnología opere en esas zonas sin fiscalización equivale a crear vacíos donde nadie responde por el resultado.

La delegación de la función jurisdiccional en un algoritmo no es un problema técnico, sino un problema de principios: rompe la garantía del juez natural y compromete la seguridad jurídica de las partes. En términos prácticos, esto significa que cuando un abogado o un juez utiliza un borrador generado por IA, la firma que estampa al final del documento no certifica únicamente la forma del texto, sino la corrección lógica y jurídica de su contenido. Cualquier error u omisión es responsabilidad del profesional, no de la herramienta. Aceptar esto sin reservas es la condición mínima para usar la IA con seriedad.

 

2.-Verificación sistemática y desconfianza crítica ante las alucinaciones

Los modelos de lenguaje de gran escala no operan sobre bases de datos jurídicas verificadas: producen texto estadísticamente plausible. Esto los hace capaces de generar, con notable fluidez, citas legales inexistentes, precedentes jurisprudenciales inventados o referencias normativas que nunca han existido. El fenómeno se conoce técnicamente como alucinación, y su peligro radica precisamente en que el texto resultante parece confiable.

El deber de contrastar cada dato producido por una herramienta de IA con fuentes oficiales no es opcional: es una exigencia de la diligencia profesional contemporánea. La IA no tiene fe pública ni autoridad institucional (Poder Judicial de Costa Rica, 2026). Lo que produce es una hipótesis que el operador jurídico debe confirmar o descartar antes de incorporarla a cualquier actuación formal.

Un caso que ilustra las consecuencias de ignorar esto: firmas de abogados en Estados Unidos han sido sancionadas con multas de hasta cinco mil dólares por presentar escritos judiciales basados en jurisprudencia fabricada por un chatbot. La sobreconfianza en la herramienta tuvo consecuencias procesales y económicas directas.

Además, se entiende que, la diligencia en la era digital se mide, en buena medida, por la capacidad de cuestionar lo que el sistema produce antes de firmarlo.

 

3.-Protección de la privacidad y confidencialidad de los datos judiciales

Introducir información sensible de expedientes judiciales en plataformas digitales externas entraña riesgos que pueden comprometer el secreto profesional y la intimidad de las partes. Este punto no se resuelve con buenas intenciones: requiere una arquitectura de datos deliberada.

El CEPEJ (2025) establece que la soberanía sobre los datos judiciales exige que toda infraestructura tecnológica utilizada en el ámbito jurisdiccional permanezca bajo el control exclusivo del poder judicial. Quedan prohibidos el ingreso de información reservada en sistemas que utilicen esos datos para entrenar modelos comerciales, así como cualquier mecanismo que traslade información protegida a servidores fuera del control institucional. La eficiencia operativa no puede obtenerse a costa de la privacidad de las personas que recurren al sistema de justicia.

Al mismo tiempo, la IA también puede contribuir a la protección de datos cuando se despliega con ese propósito. Algunos tribunales como el Croacia, el de Casación en Francia o el Ministerio de la Presidencia, Justicia y Relaciones con las Cortes en España han implementado motores de anonimización que identifican y eliminan automáticamente datos personales en sentencias antes de su publicación en portales de datos abiertos. Este uso demuestra que la tecnología puede estar al servicio de los derechos, siempre que exista una decisión institucional que así lo determine.

 

4.-Transparencia y explicabilidad de los procesos algorítmicos

Una justicia que no puede explicarse a sí misma tiene un problema de legitimidad. Cuando un algoritmo interviene en la toma de decisiones —resumiendo actuaciones, estructurando resoluciones, clasificando expedientes—, las partes afectadas tienen el derecho de saber qué herramienta se utilizó, con qué propósito y de qué manera. Sin esa información, el derecho a la defensa y a la impugnación efectiva se vuelve nominal.

La UNESCO (2021) reconoce que la transparencia y la explicabilidad no son simples atributos técnicos: son condiciones éticas previas al uso legítimo de la IA en contextos que afectan derechos. Los sistemas de caja negra —aquellos cuyo razonamiento interno es opaco para quienes reciben sus efectos— son incompatibles con el Estado democrático de derecho.

En términos concretos, las directrices actuales obligan a informar expresamente a las partes cuando se ha recurrido a IA en la elaboración de documentos procesales, indicando el nombre de la herramienta empleada y el alcance de su intervención. Esta exigencia no frena la tecnología: la hace auditable y, por tanto, legítima.

 

Conclusión

La IA en el ámbito jurídico no es un sustituto del operador: es un instrumento que amplía su capacidad cuando se usa con criterio y la reduce cuando se usa sin él. La máquina procesa patrones a una velocidad que ningún ser humano puede igualar; el ser humano conserva algo que ninguna máquina ha adquirido aún: la capacidad de juzgar con equidad en situaciones que escapan al patrón.

Los cuatro principios desarrollados en este artículo —supervisión humana, verificación crítica, protección de datos y transparencia algorítmica— no son restricciones al progreso tecnológico. Son las condiciones sin las cuales ese progreso resulta jurídicamente inaceptable. Incorporar herramientas de IA al ejercicio del derecho sin asimilar estas condiciones es, simplemente, ejercer mal el derecho con medios más veloces.

La construcción de un sistema jurisdiccional confiable en la era digital requiere operadores que entiendan los límites de la tecnología, marcos regulatorios que los formalicen, y una cultura profesional donde la firma en un documento siga siendo, como siempre lo ha sido, un acto de responsabilidad personal. El derecho debe seguir siendo una disciplina centrada en la dignidad humana, los algoritmos sirven a la ley; la ley no puede rendirse ante la opacidad del código.

 

Referencias bibliográficas

CEPEJ. (2025). Draft Guidelines on the use of generative AI for courts. Consejo de Europa.

Consejo General del Poder Judicial [CGPJ]. (2026). Instrucción 2/2026, sobre la utilización de sistemas de inteligencia artificial en el ejercicio de la actividad jurisdiccional. Boletín Oficial del Estado, (27).

Cumbre Judicial Iberoamericana. (2025). Código Ético Iberoamericano para el Uso de la Inteligencia Artificial en el Poder Judicial.

Poder Judicial de Costa Rica. (2026). Circular No. 31-2026: Reglas y lineamientos éticos para el uso de Inteligencia Artificial Generativa por parte de las personas servidoras judiciales.

UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.