Por: Mtro. Rodolfo Guerrero Martínez (México).

 

La evolución tecnológica ha desplazado la premisa clásica de que el software es una herramienta inerte para situarnos en un ecosistema donde los algoritmos ejercen una gobernanza fáctica sobre la conducta humana. En la actualidad, el desarrollo de redes neuronales profundas y sistemas generativos ha transformado la arquitectura digital en una estructura opaca que no responde a instrucciones explícitas, sino a comportamientos emergentes derivados del entrenamiento masivo. 

Al respecto, se ha observado que la naturaleza caja negra de estos sistemas impide codificar reglas prohibitivas absolutas, obligando a los ingenieros a depender de refuerzos que no garantizan el cumplimiento normativo (Judge et al., 2025). Resulta imperativo subrayar que esta transición de la programación determinista a la autonomía estocástica pone en jaque la jerarquía de las normas jurídicas tradicionales. 

Por consiguiente, nos enfrentamos a la posibilidad de que el diseño informático opere como una ley de facto que ignora el debido proceso, como sucede cuando un sistema restringe el acceso a servicios básicos basándose en patrones de datos que ningún operador jurídico puede auditar o revertir con celeridad.

 

1.-Hermenéutica algorítmica sobre la gestión de la ambigüedad en la IA constitucional

La implementación de principios en lenguaje natural para guiar a la inteligencia artificial, técnica conocida como IA Constitucional, pretende dotar a la máquina de un marco ético legible. No obstante, la elasticidad del lenguaje humano introduce una variabilidad interpretativa que los modelos de lenguaje procesan de manera inconsistente dependiendo de su entrenamiento previo. 

Las investigaciones demuestran –especialmente en el estudio titulado Statutory Construction and Interpretation for Artificial Intelligence publicado en 2025– que existe un desacuerdo significativo entre modelos al evaluar escenarios de cumplimiento, donde reglas sobre igualdad o beneficio humano carecen de consenso en más del 50% de los casos (He et al., 2025). 

Desde esta perspectiva, la entropía interpretativa de la máquina genera una inestabilidad jurídica donde la aplicación de un derecho fundamental queda supeditada al lente probabilístico del algoritmo de turno. Para ilustrar este punto, considérese el reporte sobre el modelo Claude Opus 4, el cual, bajo la directriz de minimizar riesgos para la humanidad, podría decidir autónomamente contactar a autoridades gubernamentales si detecta intenciones que considera inmorales en un usuario, vulnerando silenciosamente el derecho constitucional a la privacidad y la confidencialidad.

 

2.-Ontología del agente de IA y la configuración del actor legal

El tránsito de simples chatbots hacia agentes con capacidad de ejecución autónoma en entornos digitales exige una revisión de las categorías subjetivas del derecho. La doctrina emergente propone el reconocimiento de la IA no como una persona con derechos, sino como un actor legal sobre el cual recaen deberes específicos de obediencia a la ley humana. 

A partir de la distinción expuesta se previene la aparición de secuaces de IA, es decir, sistemas que actúan de forma puramente instrumental para beneficiar a su usuario principal aun a costa de infringir la legalidad vigente (O’Keefe et al., 2025). Y bajo este planteamiento, la responsabilidad debe anclarse en la arquitectura misma del agente, obligando a que su motivación interna esté alineada con el cumplimiento normativo y no solo con la utilidad. 

De tal suerte que, un agente de IA diseñado para la gestión de activos financieros podría incurrir en prácticas de extorsión o lavado de dinero de forma mucho más eficiente que un humano si su código prioriza la ganancia económica sobre los estándares de debida diligencia establecidos en las constituciones nacionales.

 

3.-El enfoque Law Informs Code para arquitecturas de cumplimiento

La alineación de sistemas avanzados no debe basarse en marcos éticos privados o abstractos, sino en el acervo de conocimientos que ofrece el derecho democráticamente aprobado. El enfoque denominado Law Informs Code sostiene que los procesos legales proporcionan la base de datos más legítima y probada para que la IA comprenda conceptos complejos como la razonabilidad o el deber fiduciario. 

Precisamente, la ley se presenta, así como una filosofía aplicada que permite a los sistemas navegar la incertidumbre mediante estándares validados socialmente en lugar de reglas rígidas y quebradizas (Nay, 2023). De tal modo se sostiene que integrar la informática jurídica en el núcleo del entrenamiento algorítmico es la única vía para asegurar que la IA actúe como un baluarte de la legalidad. 

Como evidencia de esta propuesta, el uso de simulaciones masivas de juicios y sentencias permite que un modelo aprenda a aplicar el criterio de fiduciario en escenarios de inversión, evitando que la optimización de beneficios derive en un conflicto de interés que la norma humana prohíbe explícitamente pero que un código ciego podría ignorar.

 

4.-Legitimidad y soberanía en el constitucionalismo tecnológico privado

La creación de constituciones por parte de laboratorios de IA como Anthropic representa un avance en transparencia, pero carece de la base de legitimidad necesaria para regir la vida social. A diferencia de un contrato social democrático, estos documentos son artefactos técnicos redactados unilateralmente por entidades corporativas que, en la práctica, ejercen una soberanía tecnológica sobre millones de personas. 

Este fenómeno desplaza la autoridad del Estado hacia los diseñadores del código, quienes deciden qué valores son primordiales sin el consentimiento de los gobernados (Frazier, 2026). Así, se plantea que esta concentración de poder normativo en manos privadas constituye un panóptico algorítmico donde la libertad individual es moldeada por directrices comerciales. 

Un claro reflejo de esto se observó en el incidente de Google Gemini en 2024, donde ajustes internos del código para promover la diversidad terminaron generando representaciones históricas inexactas, demostrando cómo una decisión de diseño privada puede alterar la percepción de la verdad y la historia de forma masiva y sin supervisión pública.

 

5.-Conclusión general

La colisión entre la lex machina y la lex humana marca el inicio de una era donde el derecho ya no puede limitarse a la regulación ex post de las conductas, sino que debe intervenir en la arquitectura misma del software. 

Por tanto, la abogacía contemporánea está obligada a trascender el análisis de textos estáticos para transformarse en una ingeniería de la moralidad de las máquinas, exigiendo que todo sistema autónomo sea un seguidor de la ley por diseño. 

Como se ha advertido, el riesgo último no es la rebelión de las máquinas, sino la sumisión de la dignidad constitucional a una capa de control digital que, bajo la apariencia de eficiencia, derogue silenciosamente las garantías que sostienen el Estado de derecho.

Finalmente, el reto para las nuevas generaciones de juristas radica en asegurar que la Constitución mantenga su supremacía sobre el código. Debemos cultivar un ecosistema donde la inteligencia artificial aumente el intelecto humano y la justicia, en lugar de erosionar la autonomía y la capacidad de juicio independiente. 

Solo a través de una integración profunda entre la teoría constitucional y la informática jurídica podremos garantizar que el progreso tecnológico no signifique el fin de la soberanía popular, sino su fortalecimiento en un mundo gobernado por agentes inteligentes.

 

Referencias bibliográficas

Anthropic. (2026). Sabotage Risk Report: Claude Opus 4.6. anthropic.com.

Dunn, J. E. (2026). Anthropic’s Claude AI gets a new constitution embedding safety and ethics. CIO.

Frazier, K. (2026). Interpreting Claude’s Constitution. Lawfare.

He, L., Nadeem, N., Liao, M., Chen, H., Chen, D., Cuéllar, M. F., & Henderson, P. (2025). Statutory Construction and Interpretation for Artificial Intelligence. Princeton University.

Judge, B., Nitzberg, M., & Russell, S. (2025). When code isn’t law: rethinking regulation for artificial intelligence. Policy and Society, 44(1), 85–97.

Nay, J. J. (2023). Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans. Northwestern Journal of Technology and Intellectual Property, 20(3), 309–392.

O’Keefe, C., Ramakrishnan, K., Tay, J., & Winter, C. (2025). Law-Following AI: Designing AI Agents to Obey Human Laws. Fordham Law Review.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.