Por: Mtro. Rodolfo Guerrero Martínez (México).
En la fragua del Derecho, donde los juristas han forjado significados a partir de textos esquivos y principios de textura abierta, la llegada de los sistemas de inteligencia artificial (IA) parece una ironía del destino. Aquellas ambigüedades inherentes al lenguaje natural, que históricamente justificaron la labor del intérprete como un navegante en aguas inciertas, actualmente se presentan como datos estructurables para LLMs (modelo extenso de lenguaje) y sistemas RAG (generación aumentada por recuperación).
Se localiza la búsqueda del significado de una disposición o de la voluntad de la norma, tareas que antes demandaban un esfuerzo intelectual profundo y una inmersión en la historia, la dogmática y el sistema jurídico, ahora podrían ser (¿acaso superficialmente?) abordadas por algoritmos entrenados en vastos cuerpos de texto legal.
Los agentes inteligentes, cual centinelas incansables, podrían rastrear precedentes, compilar argumentos dogmáticos y realizar conexiones sistemáticas, presentando al jurista humano un panorama, si no definitivo, al menos exhaustivamente documentado. Pero ¿es este mero compendio el alma de la interpretación o solo su esqueleto?
Ahora bien, la argumentación jurídica, descrita como una actividad inherentemente humana y práctica, que se distingue del silogismo lógico y que busca justificar decisiones ante un auditorio o en un «caso especial del discurso práctico», se enfrenta a su propio reflejo digital.
En ese sentido, la teoría de Alexy, con sus capas de reglas, principios y procedimiento discursivo, parece construida para la deliberación racional humana ¿Puede un prompting (técnica para guiar respuestas de los modelos de IA) hábil emular la búsqueda de la «mejor respuesta posible» o la ponderación de principios que implica juicios de valor y «obligaciones de grado»? ¿O la máquina, como un eco sin conciencia, solo replicará patrones argumentativos sin aprehender su «fuerza» o su pretensión de corrección moral?
Por otra parte, la interpretación constitucional, que se nutre tanto de la academia como de la sabiduría práctica de jueces y litigantes, y que lidia con la vaguedad de principios fundamentales como la dignidad humana, exige un plus de racionalidad y una justificación transparente. De forma que, la ponderación de principios, clave en este ámbito, ¿puede ser reducida a una función algorítmica? ¿O subsistirá un reducto impenetrable de «sensibilidad para identificar la justicia del caso» que solo el intelecto humano, con sus virtudes intelectuales y su capacidad de colaboración, puede alcanzar?
Por tanto, en este artículo, se desarrollarán siete interrogantes que emergen conforme a lo precedente, como faros en la niebla digital, para guiar nuestra reflexión crítica.
1 . ¿Qué queda de la ambigüedad del término interpretación cuando los LLMs, alimentados por vastos corpus, sugieren múltiples sentidos, relegando al jurista humano a un mero seleccionador asistido por prompting?
En principio, se revela que la interpretación no es unívoca ni clara, presentando diversas acepciones como la distinción entre la interpretación como «acto de conocimiento» (identificar significados) y como «decisión» (elegir uno).
Los LLMs, particularmente cuando se potencian con RAG para acceder a fuentes autoritativas y materiales jurídicos, parecen sobresalir en la primera faceta: pueden, con asombrosa velocidad, identificar y presentar un catálogo exhaustivo de posibles significados de una disposición legal, así como argumentos semánticos o históricos que los sustentan.
Esta capacidad, como un diccionario hiperpotenciado, transforma la dificultad inherente a la vaguedad y ambigüedad del lenguaje legal en una tarea de procesamiento de datos. Empero, la decisión final sobre cuál significado adoptar, especialmente en casos difíciles o cuando se postula una interpretación «creativa» o constructiva que busca la mejor justificación, sigue anclada en el juicio humano.
Sin embargo, la ironía reside en que la herramienta diseñada para navegar la ambigüedad podría, paradójicamente, simplificarla en exceso, ocultando las profundas elecciones valorativas que subyacen a la decisión interpretativa, y relegando al prompting la delicada labor de guiar la máquina hacia el sentido deseado, sin garantía de transparencia o aprehensión genuina de la pretensión de corrección.
2 . Si la argumentación jurídica es un caso especial del discurso práctico que busca la justificación racional y se estructura en niveles (reglas, principios, procedimiento), ¿hasta qué punto los sistemas de IA pueden replicar este proceso sin traicionar su esencia deliberativa y orientada al consenso humano?
Se debe ubicar en la teoría de la argumentación, particularmente en el modelo de Alexy, la idea de que las cuestiones prácticas pueden ser debatidas racionalmente, buscando la corrección.
En esa lógica, las reglas y principios son los elementos pasivos del sistema, susceptibles de ser procesados por IA si están suficientemente definidos, donde los sistemas RAG pueden identificar las reglas aplicables y los principios relevantes, mientras que los LLMs pueden generar texto que simula la aplicación de criterios argumentativos como la sistematicidad o la dogmática.
No obstante, el procedimiento argumentativo implica una interacción humana dialógica, una búsqueda de consenso y la confrontación de razones prácticas. La IA puede presentar argumentos (las formas de argumento), pero carece de la capacidad de participar en el discurso en el sentido humano de aprehender la fuerza persuasiva más allá de la correlación estadística o de buscar genuinamente un acuerdo racional.
De esta forma, revelando una antítesis entre la lógica fría y computacional de la máquina y la cálida, a menudo imperfecta, pero intrínsecamente humana deliberación práctica que se puede representar como el corazón de la justificación jurídica.
3 . La ponderación de principios, crucial para justificar decisiones constitucionales, implica la asignación de pesos y la resolución de conflictos normativos basada en juicios de valor. ¿Puede un agente inteligente, potenciado por LLMs y RAG, realizar esta tarea sin despojarla de su dimensión axiológica, convirtiéndola en una mera optimización matemática de criterios predefinidos?
Ante esta interrogante se enmarca que la ponderación es fundamental para justificar decisiones jurídicas, especialmente en el ámbito de principios, lo cual implica un ejercicio de razón práctica para integrar los principios y reglas del sistema.
Un sistema de IA podría, ciertamente, ser entrenado en vastas bases de datos de jurisprudencia, identificando cómo los tribunales han ponderado principios en casos similares. RAG, por su parte, podría recuperar argumentos específicos de decisiones pasadas. En ese orden de ideas, un LLM puede generar un borrador de ponderación, articulando los argumentos a favor de un principio sobre otro.
Pero la ponderación, tal como se advierte, requiere una sensibilidad para identificar la justicia del caso y realizar juicios normativos. Alexy habla de principios con obligación de grado, cuya aplicación no es automática sino mediada por el procedimiento.
La máquina puede simular la lógica de la ponderación, pero ¿puede sentir o valorar genuinamente los bienes morales y epistémicos en juego? La ironía radica en que la búsqueda de mecanismos racionales y controlables para la interpretación, anhelada por la teoría, podría materializarse en una tecnología que ofrece control y previsibilidad, pero a costa de la discrecionalidad informada por la sabiduría práctica y la apreciación de los valores que son esenciales.
4 . En el escenario del valor sobre las virtudes judiciales tales como la imparcialidad, independencia, autonomía intelectual y sensibilidad que son pilares de la función judicial. ¿Cómo impacta la participación de agentes inteligentes en la toma de decisiones en la concepción del juez como actor con estas cualidades, potencialmente reemplazando la virtud humana por la eficiencia algorítmica?
La reflexión sobre la interpretación constitucional no solo aborda métodos, sino también el perfil del operador, el juez. De esta manera, virtudes como la imparcialidad y la independencia son presentadas incluso como virtudes intelectuales, esenciales para formar creencias correctas.
Los sistemas de IA, en teoría, pueden ser diseñados para ser imparciales (si se mitigan sesgos de entrenamiento) y «objetivamente» independientes (no sujetos a presiones externas humanas). Pero virtudes como la sensibilidad para identificar la justicia del caso, la valentía para resistir presione, o la autonomía intelectual que permite al juez aportar su «propio juicio normativo», parecen intrínsecamente humanas.
Por tanto, la antítesis es palpable: la frialdad computacional frente a la sabiduría práctica forjada en la experiencia. Si la IA se convierte en el principal motor de la interpretación y la argumentación, el juez podría pasar de ser un modelo de colaboración que aporta a la construcción del derecho a un mero modelo de agencia pura que supervisa o valida la salida de un algoritmo.
Esto plantea la ironía de que la tecnología, en su búsqueda de la objetividad y la certeza (rasgos de la teoría cognitivista), podría erosionar la necesidad de las cualidades humanas que pueden considerarse indispensables para impartir justicia.
5. La distinción entre casos fáciles, difíciles y extremadamente difíciles es central para comprender la complejidad de la justificación jurídica. ¿De qué manera los sistemas de IA abordan esta clasificación y la diferente aproximación argumentativa que cada tipo requiere, o tienden a homogeneizar la tarea?
Se puede explicar que los casos fáciles se resuelven típicamente por deducción (silogismo judicial), mientras que los difíciles requieren la razón práctica y argumentos más complejos. De modo que, los casos extremadamente difíciles pueden incluso implicar la creación de significado.
Conforme a este hilo, los LLMs, asistidos por RAG, son particularmente aptos para los casos «fáciles”, dado a que pueden identificar la regla y aplicar la lógica deductiva si las premisas (hechos y norma) son claras. Su capacidad para procesar grandes cantidades de texto también les permite manejar la complejidad factual o normativa inicial de casos difíciles, recuperando argumentos relevantes y sugiriendo posibles interpretaciones.
Sin embargo, la necesidad en casos difíciles de lidiar con la duda, la necesidad de ponderar o la tarea de crear significado en casos extremos implica un salto cualitativo que va más allá del reconocimiento de patrones o la síntesis de información existente.
La IA podría, por su propia naturaleza, tender a tratar todos los casos como variaciones de problemas de «procesamiento de información» o «predicción» (basada en datos pasados), difuminando la distinción fundamental entre aplicar lo existente y la necesidad de justificar una elección difícil o, más aún, de innovar.
Y en ese sentido, la antítesis presentada es entre la gradación humana de la dificultad, que reconoce la necesidad de un juicio cualitativamente diferente, y la posible homogeneización algorítmica que ve solo diferencias cuantitativas en la complejidad de los datos.
6. Ante las diversas concepciones del Derecho y la interpretación (positivismo, neoconstitucionalismo, cognitivismo, constructivismo, etc.). ¿Hacia cuál de estas concepciones parecen inclinar la balanza las capacidades actuales de los sistemas de IA, o son herramientas neutrales?
Los sistemas de IA, en su capacidad para procesar y analizar vastos corpus textuales, parecen alinearse más naturalmente con aquellas concepciones que enfatizan el Derecho como un conjunto de textos y prácticas identificables y la interpretación como una labor de descubrimiento de significados existentes, o de identificación de la voluntad de la norma a partir de su formulación.
Esto las acercaría a ciertas vertientes del positivismo, que busca identificar el derecho positivo, o a las teorías cognitivistas e intencionalistas de la interpretación. Por ejemplo, un sistema RAG, al anclar la generación de texto en fuentes específicas, refuerza esta visión. Empero, la IA lucha con las dimensiones normativas, morales y valorativas que son centrales para el neoconstitucionalismo, la tesis de la conexión necesaria entre Derecho y moral, o el constructivismo de Dworkin que busca la «mejor justificación» a través de la integridad moral del sistema.
Si bien la IA puede recuperar argumentos morales, no puede evaluar su corrección de manera intrínsecamente moral. La similitud se encuentra en que la IA, al igual que el positivismo clásico, tiende a enfocarse en lo «dado» o lo históricamente observable (los textos, los datos de entrenamiento), mientras que la antítesis es clara con las teorías que conciben el Derecho como un proyecto moral y dinámico que requiere constante construcción y crítica humana.
7. Si el discurso jurídico de Alexy tiene momentos «ideal, racional y real» y el ideal discursivo es una «situación hipotética» orientada al consenso racional, ¿el predominio de sistemas de IA en el «momento real» no corre el riesgo de marginar o hacer irrelevantes las aspiraciones ideales de deliberación racional humana que la teoría propone?
Es menester reconocer que el discurso jurídico se mueve entre lo ideal y lo real. La aspiración a la racionalidad en el discurso práctico, que busca la corrección a través del consenso, es presentada como una idea regulativa o una «situación ideal» que no siempre se materializa plenamente en la práctica.
Cabe resaltar que, los sistemas de IA operan predominantemente en el «momento real», procesando datos históricos y generando respuestas basadas en patrones existentes. Aunque pueden simular la estructura de un debate o presentar argumentos contrapuestos (gracias al prompting), carecen de la capacidad de participar en la deliberación genuina que implica la aprehensión intersubjetiva de la validez o la pretensión de verdad/corrección.
Sin embargo, la ironía trágica es que la tecnología, diseñada para aumentar la eficiencia y quizás acercarnos a respuestas «justificadas» de manera formal, podría paradójicamente alejarnos de la búsqueda del consenso racional y la deliberación práctica que consideran el fundamento último de la legitimidad de las decisiones jurídicas en un Estado Constitucional.
La comunidad ideal de diálogo, ya hipotética para la teoría, podría volverse un vestigio aún más abstracto frente a la realidad de la toma de decisiones asistida, o dominada, por algoritmos que operan en un plano ajeno a las condiciones humanas del discurso racional.
En suma, la teoría jurídica nos ofrece un panorama bastante rico y detallado sobre la interpretación y la argumentación jurídica, así como de la ponderación de principios, y el razonamiento constitucional. Esto al discutir la naturaleza de las normas y principios, la estructura de los argumentos, las diferencias entre casos fáciles y difíciles, y las ideas de autores clave como ALEXY, DWORKIN, PERELMAN, HABERMAS Y TOULMIN, abordando conceptos como la única respuesta correcta, la situación ideal de habla, y la justificación interna y externa.
Precisamente, este corpus de conocimiento proporciona los cimientos teóricos y metodológicos para comprender cómo opera el derecho en un contexto complejo y democrático, enfatizando la racionalidad procesal y la búsqueda de decisiones justificadas.
Por otra parte, el bloque que entiende a la inteligencia artificial presenta conceptos modernos como agentes inteligentes, LLMs (Large Language Models) y RAG (Retrieval Augmented Generation), describiendo sus capacidades técnicas y aplicaciones (como resumir información o formar parte de informes sobre el estado de la IA).
Sin embargo, es indispensable destacar el nuevo paradigma jurídico-tecnológico que se apertura con la intersección tanto conceptual como práctica (de la teoría jurídica con los sistemas expertos), donde la IA otorgue justificaciones externas mediante la fundamentación de premisas no empíricas o reglas de derecho positivo, lo cual podría asistir en precedentes, argumentación dogmática o empírica.
Además, de ayudar a aplicar los cánones interpretativos (en el escenario de la IA) a través de un LLM que puede ser entrenado para identificar argumentos gramaticales, lógicos, históricos (basado en datos idóneos), sistemáticos (basado en relaciones con otras normas).
De esta forma, las aplicaciones de cánones teleológicos, que se refieren a fines y valores, podrían ser más complejos para la IA, requiriendo datos y entrenamiento sofisticados sobre el propósito de las normas o los valores constitucionales.
Y, finalmente, respecto a la ponderación que no solo es una lógica formal, sino una materialización por medio de la teoría de la argumentación jurídica. La capacidad de una IA para realizar el juicio valorativo y normativo inherente a la ponderación plantearías serias dudas, dado a que la ponderación en el modelo descrito (justificar decisiones jurídicas, especialmente cuando existen conflictos entre principios) se inserta en un discurso práctico racional vinculado con la corrección y la justicia.
La IA podría ofrecer análisis y sugerencias basadas en datos históricos de ponderación, pero la responsabilidad y el juicio final recaen en el sujeto humano (juez, operador jurídico).
Fuentes de consulta
CONSTITUCIÓN POLÍTICA DE LOS ESTADOS UNIDOS MEXICANOS (2025). https://portalhcd.diputados.gob.mx/LeyesBiblio/PortalWeb/Leyes/2021/PDF/1_280521.pdf
HABERMAS, J. (2010). Facticidad y Validez: Sobre el derecho y el Estado democrático de derecho en términos de teoría del discurso. (5ª ed.). Trotta.
LIFANTE Vidal, I. (1349). CAPÍTULO 37 INTERPRETACIÓN JURÍDICA. 2, 1349–1387. https://archivos.juridicas.unam.mx/www/bjv/libros/8/3796/17.pdf
ALEXY, R. (2007). Teoría de la argumentación jurídica (Traducción de Manuel Atienza). Editorial Palestra.
A practical guide to building agents Contents. (2025). https://cdn.openai.com/business-guides-and-resources/a-practical-guide-to-building-agents.pdf
HUMAN CENTERED ARTIFICIAL INTELLIGENCE (HAI). Artificial Intelligence Index Report 2025. https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf
JOREN, H., Zhang, J., Ferng, C.-S., Juan, D.-C., Taly, A., & Rashtchian, C. (2024). Sufficient Context: A New Lens on Retrieval Augmented Generation Systems. https://arxiv.org/abs/2411.06037
Li, X., Cao, Y., Ma, Y., & Sun, A. (2024). Long Context vs. RAG for LLMs: An Evaluation and Revisits. https://arxiv.org/abs/2501.01880
***
- Panamá ante el reto de la inclusión: cuando la ley no alcanza para romper barreras - junio 5, 2025
- Plumas NCC | Danilo - junio 4, 2025
- Plumas NCC | El nuevo paradigma del derecho en la era de la IA - junio 2, 2025