Por: Mtro. Rodolfo Guerrero Martínez (México).

La vertiginosa metamorfosis digital de la última década ha desplazado el epicentro de la conflictividad social hacia entornos virtuales, configurando una fenomenología criminal que desborda las categorías dogmáticas tradicionales. En este ecosistema, la delincuencia opera crecientemente bajo la modalidad de crimen como servicio (Crime as a Service), aprovechando la porosidad de las fronteras y el anonimato técnico para erosionar la eficacia de los sistemas judiciales nacionales

La evidencia digital, definida como información intangible contenida en impulsos electrónicos, se ha convertido en el eje central de las investigaciones; sin embargo, su extrema fragilidad y susceptibilidad de alteración imponen un rigor metodológico sin precedentes para garantizar su validez procesal. 

Es imperativo subrayar que el Derecho Penal se halla ante una encrucijada existencial: o se adapta mediante una reconfiguración ética y técnica de sus tipos penales y estándares probatorios, o se condena a una irrelevancia punitiva frente a herramientas que evolucionan a una velocidad superlativa. 

Por tanto, esta realidad se cristaliza, por citar un caso, en la necesidad de marcos normativos como la Ley Olimpia en México, que busca tutelar la intimidad sexual frente a la difusión de contenidos sin consentimiento en espacios que el derecho tradicional no alcanzaba a vislumbrar.

Este artículo analiza de forma general más no limitativa, los principales retos que enfrenta el Derecho Penal ante la acelerada evolución tecnológica, con énfasis en la digitalización de la evidencia, el surgimiento de delitos apoyados en inteligencia artificial y los desafíos probatorios derivados de ultrafalsificaciones y criptoactivos. 

 

1.-Vulnerabilidad probatoria ante ultrafalsificaciones audiovisuales generadas mediante IA

La integridad del proceso penal descansa sobre la fiabilidad de los elementos de convicción; no obstante, la irrupción de la inteligencia artificial generativa ha dinamitado la presunción de autenticidad de la evidencia digital. El marco normativo y la doctrina judicial enfrentan ahora el desafío de distinguir entre hechos documentados y ficciones algorítmicas hiperrealistas que simulan verazmente la realidad para inducir a error a los juzgadores.

El aprendizaje automático ha democratizado la capacidad de fabricar declaraciones o actuaciones de autoridades e instituciones públicas mediante técnicas que suplantan identidades de forma casi indetectable. Estas herramientas permiten crear contenidos sintéticos que, al ser difundidos masivamente, provocan daños irreversibles al honor y a la confianza institucional.

En tal sentido, la IA generativa de uso general permite generar texto, audio y video con un nivel de realismo capaz de engañar incluso a observadores atentos, reduciendo los impedimentos para crear contenido perjudicial a gran escala. 

Al respecto, las ultrafalsificaciones se definen como tipos de contenido auditivo o visual fabricados mediante algoritmos que muestran a individuos realizando actos o emitiendo declaraciones que nunca sucedieron, dotándolos de una apariencia de autenticidad que compromete la verdad judicial (Department for Science, Innovation and Technology, 2026). 

Desde una óptica procesal, la mera existencia de estas herramientas obliga a los operadores jurídicos a abandonar la confianza ciega en el material multimedia, exigiendo peritajes informáticos especializados bajo estándares internacionales para evitar que el proceso sea contaminado por engaños algorítmicos.

Precisamente, para ilustrar lo expuesto, se comprende la sanción impuesta por el Tribunal Superior de Justicia de Canarias – Sentencia T-323 de 2024 – a un letrado que fundamentó un recurso en 48 sentencias totalmente ficticias, íntegramente fabricadas por un modelo de lenguaje de propósito general.

Por otro lado, las legislaciones estatales en México han intentado responder tipificando el uso no autorizado de imagen o voz generada por IA, buscando proteger la identidad digital y la intimidad de las personas ante este vacío jurídico. 

Sin embargo, la vía penal es cuestionada por la Comisión Nacional de los Derechos Humanos, específicamente mediante la promoción de una acción de inconstitucionalidad (132/2025) presentada ante la Suprema Corte de Justicia de la Nación el 17 de diciembre de 2025. Esto al considerarla como una medida que podría resultar excesiva frente al principio de mínima intervención.

Así también, estas circunstancias requieren la identificación de estos contenidos por medio de una experticia informática forense que aplique el estándar ISO/IEC 27037, garantizando que la cadena de custodia no sea vulnerada durante la recolección de los metadatos. Sin un soporte técnico riguroso, cualquier captura de pantalla o video corre el riesgo de ser impugnado por la defensa bajo la sospecha de manipulación algorítmica.

 

2.-. Inoperatividad del rastreo financiero frente al anonimato técnico de criptoactivos

La arquitectura descentralizada de la tecnología blockchain ha facilitado el surgimiento de un sistema financiero paralelo que, si bien ofrece eficiencia y transparencia contable, carece de los puntos de control necesarios para una persecución efectiva del blanqueo de capitales. 

Aunque cada transacción deja un rastro público, el seudonimato y las técnicas de ofuscación permiten a los delincuentes levantar un velo de opacidad sobre el origen ilícito de los fondos.

El uso delictivo de activos virtuales ha escalado hacia una profesionalización técnica, empleando métodos que rompen deliberadamente el vínculo entre la transacción y la identidad del titular fiscal real. Estas dinámicas se han diversificado más allá del cibercrimen, alcanzando áreas como la financiación del terrorismo y el tráfico de drogas a escala global.

Así, los criptoactivos operan sin intermediarios centralizados, lo que debilita los mecanismos tradicionales de control fiscal y financiero, permitiendo una movilidad transfronteriza de fondos difícil de supervisar. En ese sentido, Alamà Perales (2026) advierte que la criminalidad moderna en el ecosistema cripto utiliza estrategias de estratificación avanzada, como el traslado sucesivo de fondos entre diversas cadenas de bloques y el empleo de mezcladores, con el fin de diluir la trazabilidad necesaria para que las autoridades identifiquen a los beneficiarios reales. 

Bajo este análisis, la ineficacia de las investigaciones tradicionales radica en la deslocalización técnica de los activos, puesto que las claves privadas suelen residir en jurisdicciones con escasa regulación o en monederos de autocustodia ajenos al sistema bancario. 

Como se observa en el caso de Tornado Cash, un protocolo descentralizado sancionado internacionalmente tras ser utilizado para lavar miles de millones de dólares, evidenciando que el anonimato técnico es un refugio estratégico para el crimen organizado. COPOLAD (2024) destaca que este servicio fue sancionado por la Oficina de Control de Activos Extranjeros de los Estados Unidos (OFAC) en 2022 debido a su presunto uso para blanquear más de 7,000 millones de dólares.

La fase de colocación de capitales ilícitos se ve favorecida por la existencia de cajeros automáticos de criptomonedas y plataformas peer-to-peer que carecen de controles robustos de identificación del usuario. Este anonimato inicial es el primer obstáculo que impide a las fuerzas del orden iniciar una investigación con datos de identidad verificables.

Asimismo, la minería de criptomonedas puede ser instrumentalizada como una actividad fachada para justificar ingresos cuyo origen es difícil de verificar, presentándolos como recompensas protocolarias lícitas. Esta técnica genera una disociación jurídica entre el capital invertido y el activo obtenido, dificultando la acreditación probatoria del nexo delictivo.

Para contrarrestar esta inoperatividad, resulta imperativo que las agencias de investigación adopten herramientas avanzadas de análisis forense de blockchain y fortalezcan la cooperación internacional.

 

3.-Indeterminación típica de violencias inmersivas cometidas contra representaciones digitales humanas

La expansión del metaverso y la realidad extendida (XR) ha generado una zona de penumbra jurídica respecto a las conductas agresivas perpetradas contra avatares. Al ser estas representaciones una manifestación digital del yo físico con cierto grado de autonomía, actos como el acoso o las agresiones sexuales virtuales tienen un impacto emocional y psicológico real en el usuario real.

Por consiguiente, la inmersión sensorial difumina la frontera entre el entorno material y el virtual, convirtiendo amenazas inmateriales en experiencias traumáticas mediante el uso de interfaces táctiles sofisticadas. Esta nueva dimensión de la violencia plantea interrogantes sobre si el daño psíquico es suficiente para configurar delitos que históricamente han exigido contacto físico.

El metaverso ofrece entornos donde los usuarios interactúan a través de avatares, los cuales pueden ser objeto de comportamientos dañinos o agresivos que repercuten directamente en el bienestar de la persona física. De hecho, European Union Intellectual Property Office (2024) subraya el debate doctrinal profundo sobre la necesidad de establecer marcos legales que aborden las violencias cometidas en espacios inmersivos, dado que las leyes penales vigentes carecen de definiciones claras para sancionar actos de agresión virtual contra representaciones humanas

Resulta pertinente advertir que el principio de legalidad impide la aplicación analógica de tipos penales tradicionales a mundos virtuales de propiedad privada, lo que genera una brecha de impunidad alarmante frente a nuevas formas de victimización digital.

Dicho fenómeno se materializa en el denominado griefing, donde jugadores acosan sistemáticamente a otros para causar distrés psicológico, o en la manipulación de gemelos digitales para extorsionar a personas mediante la simulación de actos degradantes.

La definición jurídica del avatar es todavía un concepto en construcción, pudiendo considerarse desde una extensión de la persona hasta una propiedad o una personalidad jurídica autónoma. Dependiendo de esta categorización, las consecuencias legales de las agresiones sufridas en el mundo virtual variarán significativamente.

Además, la participación de agentes no humanos o avatares controlados por inteligencia artificial complica la atribución de responsabilidad penal. En consecuencia, es complejo determinar quién debe responder por un acto ilícito en el metaverso: el programador del algoritmo, el usuario que lo manipula o la propia plataforma proveedora del servicio.

 

4.-Indefensión procesal por opacidad decisoria de algoritmos predictivos discriminatorios

La implementación de sistemas de inteligencia artificial para evaluar riesgos de reincidencia o dictar medidas cautelares introduce el fenómeno de la caja negra en la administración de justicia tal como previene UNESCO (2023). La opacidad de estos modelos impide que las partes comprendan la lógica subyacente al fallo, limitando drásticamente su derecho a impugnar fundamentos que podrían estar viciados.

Ahora bien, el empleo de algoritmos para automatizar decisiones judiciales promete una eficiencia administrativa necesaria para combatir el rezago; sin embargo, esta celeridad no debe alcanzarse sacrificando garantías constitucionales básicas. La tecnología debe ser un apoyo para la función jurisdiccional y nunca un sustituto de la voluntad humana motivada.

Cabe resaltar que, los sistemas de justicia predictiva utilizan patrones detectados en grandes volúmenes de datos para generar recomendaciones sobre la peligrosidad o el riesgo de fuga de los imputados en procesos penales. 

En ese hilo, el Centro de Estudios de Justicia de las Américas (2025) sostiene que los algoritmos no son neutrales, sino que replican y pueden amplificar los sesgos discriminatorios presentes en sus datos de entrenamiento, lo que pone en riesgo el derecho a un juez imparcial y el principio de igualdad ante la ley. 

A la luz de lo expuesto, la delegación de funciones críticas en códigos opacos vulnera el deber de motivar las sentencias de forma inteligible, puesto que una fórmula matemática no sustituye el juicio crítico y la valoración individualizada de cada caso. 

Un claro reflejo de esta problemática es el algoritmo COMPAS en Estados Unidos, el cual clasificaba sistemáticamente a personas afrodescendientes como de mayor riesgo sin evidencia empírica real, institucionalizando el prejuicio racial bajo una apariencia de objetividad técnica.

De tal modo que, la falta de transparencia se agrava cuando los sistemas son desarrollados por empresas privadas bajo el amparo del secreto comercial, impidiendo que el juez y las partes auditen el funcionamiento interno de la herramienta. Esta indefensión es particularmente grave en el ámbito penal, donde la libertad de las personas está en juego.

La modernización de los poderes judiciales debe centrarse en las personas y en la protección de sus derechos humanos, donde el uso de la IA en los tribunales debe ser transparente, auditable y estar sujeto a mecanismos efectivos de rendición de cuentas para evitar un sistema penal tecnocrático y deshumanizado.

 

Conclusión general

El avance exponencial de las tecnologías emergentes impone una reconfiguración ética y técnica del Derecho Penal que trasciende la mera actualización normativa. La superación de retos como la manipulación de evidencias por IA o la opacidad de los criptoactivos requiere de operadores jurídicos dotados de una formación interdisciplinaria sólida, capaces de integrar estándares internacionales de informática forense para garantizar la seguridad jurídica en la era digital.

Resulta imperativo establecer una reserva de humanidad que asegure que toda decisión que afecte derechos fundamentales sea siempre supervisada por un juez humano, garantizando la transparencia y explicabilidad de los procesos algorítmicos. 

La tecnología debe ser concebida como un instrumento para cerrar brechas de impunidad y no como una vía para institucionalizar nuevas formas de discriminación o indefensión procesal, preservando siempre la dignidad humana como eje central del sistema de justicia.

 

Referencias bibliográficas

Alamà Perales, J. (2026). Tendencias actuales en la comisión de los delitos de blanqueo de capitales y defraudación tributaria en el contexto cripto. ReCrim, (1), 1-36. http://www.uv.es/recrim

Centro de Estudios de Justicia de las Américas [CEJA]. (2025). Inteligencia Artificial en los Poderes Judiciales: Reflexiones y Lineamientos para las Américas. CEJA.

Department for Science, Innovation and Technology. (2026). International AI Safety Report 2026. https://internationalaisafetyreport.org

European Union Intellectual Property Office [EUIPO]. (2024). Impact of the Metaverse on infringement and enforcement of intellectual property. EUIPO.

Secretaría del GAFIC & COPOLAD III. (2024). Investigaciones financieras y análisis para riesgos emergentes de blanqueo de capitales: Uso delictivo de criptomonedas. Manual de formación. Programa de Cooperación entre América Latina, el Caribe y la Unión Europea en Políticas sobre Drogas.

UNESCO. (2023). Kit de herramientas global sobre IA y el estado de derecho para el poder judicial. UNESCO.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.