Por: Mtro. Rodolfo Guerrero Martínez (México).
El panorama jurídico contemporáneo se enfrenta a una metamorfosis sin paragón impulsada por la integración de sistemas autónomos en la dinámica social, lo que desplaza el epicentro de la conflictividad hacia entornos virtuales donde las categorías dogmáticas tradicionales resultan insuficientes.
Esta transición desde la automatización industrial hacia la inteligencia artificial (IA) física y generativa no solo redefine la producción, sino que altera la estructura misma de la responsabilidad penal al presentar entidades con capacidades de aprendizaje que desbordan la previsión humana.
Pecisamente, Lledó Benito (2022) subraya que el Derecho penal no puede permanecer ajeno a la realidad de las máquinas pensantes que actúan fuera del control de sus creadores, planteando interrogantes fundamentales sobre cómo y contra quién debe intervenir el ius puniendi cuando se producen conductas delictivas autónomas.
Bajo esta perspectiva, resulta imperativo colegir que la modernización del sistema de justicia no debe limitarse a una actualización técnica de herramientas, sino que exige una reconfiguración ética que preserve la soberanía de la voluntad humana frente al determinismo de los algoritmos.
La ciencia penal debe evolucionar hacia un modelo capaz de identificar riesgos emergentes en el ciberespacio, evitando que la velocidad de la innovación tecnológica condene a la norma punitiva a una irrelevancia estructural.
Dicho escenario se materializa, por mencionar una situación concreta, en la proliferación de redes delictivas que operan bajo la modalidad de crimen como servicio, aprovechando la porosidad de las fronteras digitales y el anonimato técnico para erosionar la eficacia de los sistemas judiciales nacionales.
Este artículo explora, desde una perspectiva general sobre los retos que implica adaptar el ius puniendi a la realidad de la inteligencia artificial, abogando por una reconfiguración profunda que preserve tanto los derechos fundamentales como la funcionalidad del propio sistema penal.
1.- Del instrumento inanimado a la persona artificial
La ontología jurídica mexicana ha clasificado tradicionalmente a las herramientas tecnológicas como simples objetos de propiedad, encuadrándolas en la categoría de cosas dentro del patrimonio. No obstante, el auge de sistemas dotados de aprendizaje profundo cuestiona esta visión simplista, pues la capacidad de una máquina para desaprender y corregir conductas por cuenta propia rompe el nexo causal directo que fundamenta la autoría mediata tradicional.
Al respecto, Morán Espinosa (2021) propone que la IA del tipo machine learning requiere el reconocimiento de una tercera categoría de personalidad jurídica denominada persona artificial, lo cual facilitaría la determinación de responsabilidades penales ante casos irresolubles cometidos por la autonomía algorítmica.
Es dable sostener que persistir en el modelo del instrumento sin voluntad ignora la realidad de sistemas que, si bien carecen de conciencia biológica, ejecutan procesos de razonamiento y toma de decisiones con una eficacia superior a la humana.
Por tanto, el reto legislativo está en crear una identidad jurídica electrónica que permita sancionar la rebeldía de la máquina o la negligencia en su entrenamiento, sin desproteger los derechos fundamentales de los usuarios y desarrolladores.
A forma de ilustración, considérese el caso de algoritmos de conducción automatizada que, tras observar miles de horas de comportamiento humano, deciden de forma autónoma realizar maniobras de riesgo no programadas que derivan en siniestros con resultados letales.
Hoy en día, la Cámara de Diputados del H. Congreso de la Unión (2026) establece en el texto vigente del Código Penal Federal que la responsabilidad por los delitos cometidos mediante el uso de instrumentos tecnológicos recae fundamentalmente en quienes ostentan el dominio del hecho o se sirven de estos como herramientas para la ejecución de conductas típicas.
2.-El fenómeno de la caja negra en la indefensión procesal
Uno de los pilares del debido proceso es el derecho a una resolución motivada, el cual se ve seriamente comprometido cuando las decisiones judiciales o administrativas se delegan en modelos predictivos cuya lógica interna es ininteligible para las partes.
Este fenómeno, donde el procesamiento de macrodatos oculta el razonamiento subyacente, genera un estado de indefensión que impide impugnar de manera efectiva los fundamentos de un fallo viciado por sesgos invisibles.
Sobre este punto, he advertido a través de la publicación intitulada Retos del derecho penal en el escenario de las tecnologías emergentes que la delegación de funciones críticas en códigos opacos vulnera el deber de motivar sentencias, toda vez que una fórmula matemática no puede sustituir el juicio crítico y la valoración individualizada de cada caso por parte de un juez humano.
Resulta fundamental asentar que la transparencia algorítmica no debe ser una opción técnica, sino un imperativo legal que garantice la explicabilidad de los sistemas de IA utilizados en el ámbito punitivo. Dado que, sin una trazabilidad clara de los pasos lógicos que conducen a una conclusión, el sistema de justicia corre el riesgo de institucionalizar prejuicios bajo una apariencia de objetividad científica, transformando la justicia en un proceso de validación mecánica.
Tal situación se cristaliza en la implementación de algoritmos actuariales en otros países que, al evaluar el riesgo de reincidencia, terminan perpetuando estigmas sociales y discriminación racial debido a bases de datos de entrenamiento contaminadas con prejuicios históricos.
Desde este escenario, el Estado Mexicano debe proseguir con su actualización normativa; actualmente el Código Nacional de Procedimientos Penales precisa que las partes tienen el derecho irrestricto de acceder al contenido de las carpetas digitales y a los registros de las audiencias, asegurando que la información procesal sea comprensible y esté debidamente resguardada para garantizar la presunción de inocencia.
3.-La inteligencia artificial como medio comisivo bajo el principio de taxatividad
La tipificación de delitos que involucran tecnología avanzada ha generado debates sobre la claridad y precisión que exige la ley penal para no vulnerar la seguridad jurídica. En el contexto mexicano, se ha validado que mencionar la IA en las normas no implica regular la tecnología en abstracto, sino precisar la forma en que esta se utiliza como una herramienta sofisticada para lesionar bienes jurídicos tradicionales como la intimidad y la identidad.
Por consiguiente, Salomón Durán (2026) enfatiza que es proporcional y necesario incorporar agravantes en el Código Penal Federal que disuadan la manipulación sintética de la identidad y la difusión de representaciones con apariencia real creadas sin el consentimiento de la víctima.
En virtud de lo expuesto, se infiere que la utilización de la IA como medio comisivo permite al legislador alcanzar nuevas modalidades de criminalidad, como las ultrafalsificaciones, sin romper el principio de taxatividad. Así, al definir la conducta prohibida a través del daño concreto y el medio sintético empleado, se brinda certeza al gobernado sobre las consecuencias de utilizar algoritmos para la suplantación algorítmica o la extorsión digital.
En este tenor, se comprende la relevancia de sancionar el uso de deepfakes en contextos de violencia digital, donde la creación de contenidos sexuales ficticios con apariencia verosímil destruye la reputación de las personas mediante una herramienta casi indetectable por métodos forenses convencionales.
4.-Gobernanza de riesgos corporativos conforme al principio de precaución
La responsabilidad penal de las personas jurídicas frente al uso de IA exige un cambio en la cultura del cumplimiento normativo, desplazando el enfoque desde la mera reacción hacia la prevención proactiva de riesgos de desarrollo. Las empresas que operan con sistemas inteligentes asumen una posición de garante respecto a los daños que sus algoritmos puedan causar, lo que obliga a la implementación de mecanismos de supervisión humana constante.
De acuerdo con Pérez-Ugena (2024), el principio de precaución debe guiar a desarrolladores y reguladores, obligándolos a adoptar medidas preventivas incluso ante la ausencia de evidencia científica concluyente sobre los riesgos, con el fin de mitigar efectos negativos en los derechos humanos.
Por lo tanto, la gobernanza corporativa en la era digital debe integrar el concepto de reversibilidad como una condición necesaria para el control tecnológico, asegurando que siempre exista un botón de interrupción o una revisión humana que pueda anular acciones no deseadas de la máquina. La inobservancia de estos deberes de cuidado en el diseño y despliegue de la IA traslada la responsabilidad a la estructura organizacional, la cual debe responder por la falta de un control efectivo sobre sus activos digitales.
Dicho panorama se observa con claridad en el sector financiero, donde el uso de bots de alta velocidad puede generar desequilibrios sistémicos o fraudes masivos si la empresa titular no establece salvaguardas que limiten la autonomía de sus sistemas de ejecución automática.
Conclusión general
La reconfiguración del ius puniendi ante la inteligencia artificial representa el desafío más apremiante para la ciencia jurídica del siglo XXI, exigiendo una transición desde la dogmática clásica hacia un modelo que reconozca la autonomía técnica sin renunciar a la responsabilidad moral.
El éxito de esta evolución normativa en México dependerá de la capacidad de los legisladores para cerrar las brechas de impunidad generadas por la opacidad algorítmica, garantizando que el desarrollo tecnológico no ocurra a expensas de la seguridad jurídica y los derechos fundamentales de los ciudadanos.
Finalmente, es indispensable establecer una reserva de humanidad en la impartición de justicia, asegurando que la tecnología permanezca siempre como un apoyo para la función jurisdiccional y nunca como su sustituto. Como bien se ha analizado, el Derecho debe erigirse como un muro de contención frente al actuar de los poderes tecnológicos salvajes, preservando la dignidad humana como el eje central y último de toda intervención punitiva en la nueva era de la inteligencia artificial.
Referencias bibliográficas
Cámara de Diputados del H. Congreso de la Unión. (2025). Código Nacional de Procedimientos Penales. Última Reforma DOF 28-11-2025.
Cámara de Diputados del H. Congreso de la Unión. (2026). Código Penal Federal. Última Reforma DOF 13-03-2026.
Gámez Sagrero, J. C. (2024). Inteligencia artificial y derecho en México. Un dilema: El mito del vehículo automatizado en México. Revista Internacional & Comparada de Derechos Humanos, 7(1), 161-193.
Guerrero Martínez, Rodolfo (2026). Retos del derecho penal en el escenario de las tecnologías emergentes. Plumas NCC.
Lledó Benito, I. (2022). El derecho penal, robots, IA y cibercriminalidad: Desafíos éticos y jurídicos ¿Hacia una distopía? Editorial Dykinson.
Morán Espinosa, A. (2021). Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera? Revista del Instituto de Ciencias Jurídicas de Puebla, 15(48), 289-323.
Pérez-Ugena, M. (2024). Análisis comparado de los distintos enfoques regulatorios de la inteligencia artificial en la Unión Europea, EE. UU., China e Iberoamérica. Anuario Iberoamericano de Justicia Constitucional, 28(1), 129-156.
Salomón Durán, C. Y. (2026). Iniciativa que adiciona diversas disposiciones al Código Penal Federal en materia de agravantes con IA. Sistema de Información Legislativa de la Secretaría de Gobernación.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | La reconfiguración del IUS PUNIENDI ante la Inteligencia Artificial - abril 7, 2026
- NCC Radio Cultura – Emisión 357 – 06/03/2026 al 12/04/2026 – Las Picanterías, un espacio gastronómico emblemáticode Cusco - abril 6, 2026
- NCC Radio Tecnología – Emisión 357 – 06/03/2026 al 12/04/2026 – Eco Falles: UPV facilita el trabajo creativo de artistas - abril 6, 2026




