Por: Mtro. Rodolfo Guerrero Martínez (México).

El derecho contemporáneo enfrenta un problema que sus categorías clásicas no estaban diseñadas para resolver: el ejercicio de poder a través del código informático. Los algoritmos no son herramientas neutras de procesamiento; son dispositivos que toman decisiones —sobre la libertad de una persona, sobre qué voces circulan en el debate público, sobre qué datos definen la identidad de un ciudadano, sobre cómo se configura su entorno cognitivo— sin que esas decisiones sean legibles, contestables ni atribuibles con claridad a ningún responsable jurídico.

Esa opacidad es el problema central que pronuncia este artículo. No se trata de un defecto técnico corregible con mejor ingeniería: es una característica estructural de los sistemas algorítmicos tal como operan hoy, reforzada deliberadamente mediante el secreto comercial, la complejidad técnica y la ausencia de marcos regulatorios adecuados.

De esta manera, el resultado es una forma de poder que actúa sobre derechos fundamentales —la libertad personal, la soberanía democrática, la privacidad, la autonomía cognitiva— sin los mecanismos de rendición de cuentas que el Estado de derecho exige para cualquier otra forma de autoridad.

La tesis que se sostendrá en cuatro apartados es la misma: la pretendida neutralidad técnica de los sistemas algorítmicos es una ficción jurídica. Detrás de ella opera el ejercicio de un poder editorial, normativo y conductual que hoy carece de contrapesos. Nombrar ese poder con precisión es el primer paso para someterlo al derecho.

 

1.-Límites constitucionales de la evidencia algorítmica en materia penal

La adopción de herramientas de inteligencia artificial para construir perfiles de riesgo procesal colisiona directamente con dos garantías constitucionales que no admiten matices: el debido proceso y la presunción de inocencia. En ese sentido, los sistemas predictivos se presentan, con frecuencia, como instrumentos de objetividad matemática. Así, el problema es que su lógica interna permanece opaca incluso para los operadores jurídicos que los utilizan.

Para que un sistema automatizado que incide en decisiones sobre la libertad personal sea compatible con los derechos fundamentales, debe poder justificar sus resultados de forma inteligible para la defensa, el juzgador y la ciudadanía (Diakopoulos & Friedler, 2016). Esto no es un desiderátum programático: es una exigencia constitucional derivada del derecho a la tutela judicial efectiva.

En este punto, el argumento del secreto comercial merece una respuesta directa: la confidencialidad empresarial no puede funcionar como barrera infranqueable para el ejercicio del derecho de defensa. Si a un imputado se le asigna una calificación de alta peligrosidad basada en factores propietarios que la defensa no puede examinar ni refutar, el proceso penal pierde su legitimidad. No se trata de una irregularidad menor; se trata de una vulneración estructural a la garantía de defensa adecuada.

 

2.-Soberanía estatal frente al monopolio del poder algorítmico privado

Un puñado de corporaciones tecnológicas globales controla hoy la infraestructura sobre la que circula el conocimiento, la comunicación y, en buena medida, el debate político. Esa concentración genera una forma de soberanía digital de facto que compite con la autoridad regulatoria de los Estados nacionales y desdibuja las fronteras del derecho público.

Por consiguiente, la asimetría resultante obliga a replantearse el estatuto jurídico del acceso a la información sobre el funcionamiento de estos sistemas. Conocer los criterios que rigen la visibilidad o la supresión de contenidos no es un privilegio técnico: es una condición para el ejercicio de las libertades civiles en el entorno digital (Sun, 2023).

La inacción legislativa frente a estos cuasi-monopolios tiene consecuencias concretas: permite que las normas comunitarias privadas —elaboradas unilateralmente por las plataformas— desplacen a las garantías constitucionales. En consecuencia, la moderación automatizada del discurso político ilustra bien este problema, por ejemplo, cuando una decisión algorítmica suprime o amplifica contenidos durante un proceso electoral ejerce un poder normativo equiparable al legislativo, pero sin los mecanismos de rendición de cuentas que el Estado de derecho exige.

 

3.- Impacto constitucional del rastreo biométrico masivo

El capitalismo de vigilancia —para usar la categoría de Zuboff (2019)— no se limita a registrar el comportamiento de los usuarios: busca anticiparlo y modificarlo. La recolección sistemática de datos conductuales y biométricos permite construir perfiles psicográficos de una granularidad que hace décadas habría parecido distópica. La privacidad, en este modelo, deja de ser un derecho para convertirse en un recurso explotable comercialmente.

Desde el derecho constitucional, el problema no es solo de escala sino de estructura, entiendo cómo este nivel de intrusión erosiona el derecho a la autodeterminación informativa y elimina cualquier expectativa razonable de anonimato en el espacio público.

El ciudadano que transita por una ciudad con cámaras de reconocimiento facial o que navega por plataformas con rastreo conductual permanente ya no es, en sentido estricto, un sujeto anónimo. Es un perfil en construcción.

Cabe destacar, el micro-targeting político con datos recolectados sin consentimiento informado real es, quizá, el caso que mejor articula la gravedad del problema. Se trata de mensajes diseñados para explotar vulnerabilidades psicológicas específicas, dirigidos a individuos cuyas preferencias y fragilidades han sido modeladas sin que lo sepan. Llamar a eso campaña política es un eufemismo; lo que describe es una forma de manipulación de la voluntad electoral.

4.-Tutela jurídica de la integridad cognitiva ante la IA agéntica

Los algoritmos de recomendación no solo filtran información: configuran activamente el entorno cognitivo del usuario, donde el uso de esquemas de refuerzo variable —el mismo principio que opera en las máquinas tragamonedas— y la personalización extrema no son accidentes de diseño; son decisiones deliberadas que priorizan la captura de la atención sobre el bienestar del usuario. El resultado conocido es la burbuja informativa, es decir, un espacio donde la percepción de la realidad se recorta y deforma de manera sistemática.

La investigación de Morewedge (2024) sobre los fallos estructurales de estos sistemas es contundente: los algoritmos de recomendación tienden a priorizar los impulsos inmediatos del usuario sobre sus propios intereses y valores a largo plazo. Esto plantea una pregunta jurídica que el derecho civil todavía no ha respondido de forma satisfactoria: ¿quién responde cuando el diseño de una plataforma induce conductas adictivas o lesivas para la salud mental?

Una vía de respuesta pasa por reconocer que la responsabilidad civil de las plataformas debe adquirir un carácter fiduciario. Si el diseño de la interfaz —el scroll infinito, las notificaciones compulsivas, la autoreprodución de contenidos— genera daños cognitivos documentables, la plataforma no puede escudarse en la autonomía del usuario. Tiene la obligación de mitigar esos riesgos, y el derecho tiene que dotarse de herramientas para exigírselo.

 

Conclusión general

La sociedad algorítmica no vuelve obsoleto al Derecho, pero sí lo interpela con urgencia. Los conflictos analizados —la prueba penal opaca, el monopolio digital, la vigilancia biométrica, la manipulación cognitiva— no son problemas separados: todos expresan la misma tensión de fondo entre el código privado que ordena el mundo digital y los principios constitucionales que deben seguir siendo su límite.

El reto no es resistirse a la tecnología sino someterla al derecho, por tanto, la inteligencia artificial y el procesamiento masivo de datos pueden estar al servicio de la dignidad humana, pero eso no ocurrirá de forma espontánea. Requiere decisiones normativas deliberadas, comprendiendo la transparencia algorítmica, el control democrático de las infraestructuras digitales, la responsabilidad fiduciaria de las plataformas y garantías procesales adaptadas al entorno automatizado.

Recuperar el equilibrio entre el artículo jurídico y el algoritmo informático es la tarea normativa central de esta generación. No es retórica: es la condición para que la eficiencia tecnológica y el Estado de derecho puedan coexistir.

Referencias bibliográficas

Diakopoulos, N., & Friedler, S. (2016). How to hold algorithms accountable. MIT Technology Review.

Klonick, K. (2018). The New Governors: The People, Rules, and Processes Governing Online Speech. Harvard Law Review.

Morewedge, C. K. (2024). Why Algorithm-Generated Recommendations Fall Short. Harvard Business Review.

Sun, H. (2023). The right to know social media algorithms. Harvard Law & Policy Review.

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.