Por: Mtro. Rodolfo Guerrero Martínez (México)
La transformación tecnológica de las últimas décadas ha dejado de ser un fenómeno instrumental para convertirse en un hecho social total que reconfigura las dimensiones políticas, económicas y culturales de la vida contemporánea.
El espacio digital no constituye una esfera aislada de la realidad, sino un entorno donde se construyen identidades, se ejercen libertades y se expresan las relaciones de poder propias del siglo XXI. Sin embargo, la aceleración de esta transformación ha generado una brecha significativa entre la innovación técnica y la capacidad de los marcos normativos para responder a sus consecuencias, lo que plantea la necesidad urgente de una ética digital que oriente las decisiones colectivas en sociedades hiperconectadas.
En este contexto, el desafío central no consiste únicamente en codificar reglas para el algoritmo, sino en asegurar que la arquitectura digital respete la dignidad humana y que los derechos reconocidos en el mundo físico reciban idéntica tutela en los entornos virtuales.
El presente artículo examina la intersección entre la ética aplicada, la gobernanza algorítmica y las garantías jurídicas necesarias para proteger la autonomía de los individuos frente a la concentración de poder que ejercen las grandes plataformas tecnológicas y los sistemas de inteligencia artificial.
I. Axiología digital para la protección integral de la dignidad humana
La construcción de la identidad ya no se restringe al plano físico: en la actualidad, los individuos proyectan su subjetividad en entornos de procesamiento masivo de datos donde la representación algorítmica condiciona de manera determinante la percepción social del sujeto.
En este marco, la educación superior desempeña un papel fundamental al incorporar la ética aplicada como eje formativo que trasciende la dimensión técnica, con el propósito de desarrollar disposiciones morales capaces de afrontar los dilemas que plantea la digitalización.
García López y Juan Pérez (2024) argumentan que integrar la educación ética y axiológica en los planes de estudio universitarios constituye una exigencia ineludible para que las nuevas generaciones puedan emplear la tecnología al servicio de la justicia social y el bienestar colectivo.
Por su parte, Mantelero (2018) propone reconocer la dignidad digital como categoría jurídica emergente que extiende la protección del individuo a sus representaciones virtuales en entornos de macrodatos.
Desde esta perspectiva, el enfoque humanista debe impedir que el código se convierta en instrumento de cosificación del ser humano, situando la dignidad no como abstracción filosófica, sino como eje normativo transversal que limite el poder de los sistemas automatizados sobre las personas.
Un caso que ilustra con claridad esta problemática es la producción no consentida de contenido sintético mediante redes generativas, como los denominados deepfakes sexuales. Dichas prácticas constituyen una vulneración grave del núcleo íntimo de la persona y exigen respuestas jurídicas orientadas prioritariamente a la restitución de la subjetividad afectada.
II. Gobernanza algorítmica ante la asimetría regulatoria internacional
La velocidad con que operan los sistemas de inteligencia artificial genera una asimetría de información y de poder en la que las corporaciones tecnológicas concentran un control técnico que, con frecuencia, desafía la soberanía estatal y dificulta el escrutinio democrático. Frente a este vacío, resulta indispensable una gobernanza que supere las fronteras nacionales y aborde los riesgos sistémicos desde una perspectiva coordinada a escala global.
Barroso (2025) advierte que la combinación de microsegmentación conductual y neurociencia aplicada en la inteligencia artificial abre la posibilidad de manipular la voluntad y el comportamiento humano, con lo que se pone en riesgo tanto la libertad cognitiva como la autodeterminación mental de los ciudadanos. En esa misma línea, la UNESCO (2021) ha establecido un marco de valores y principios destinado a orientar a los Estados en la elaboración de normativas que garanticen que la inteligencia artificial contribuya al bienestar humano y a la sostenibilidad ambiental.
A partir de estos planteamientos, la gobernanza algorítmica debe transitar del modelo reactivo hacia un enfoque de responsabilidad proactiva desde el diseño, que haga corresponsables a los desarrolladores de los efectos materiales y simbólicos que sus sistemas producen en la sociedad.
En esa dirección, el Reglamento de Inteligencia Artificial de la Unión Europea representa un esfuerzo concreto por reducir estas asimetrías: clasifica los sistemas según su nivel de riesgo e impone obligaciones específicas de transparencia y supervisión humana en las aplicaciones de mayor sensibilidad social.
III. Garantías jurídicas para la autodeterminación informativa y el consentimiento digital
En el contexto de la economía de datos, la recopilación masiva de información personal ha evidenciado las limitaciones de los modelos de autorización binaria tradicionales, que resultan insuficientes para garantizar una decisión genuinamente informada del titular. El derecho a la protección de datos personales debe adaptarse para hacer frente a la opacidad de los algoritmos de recomendación que perfilan comportamientos de consumo, preferencias políticas e incluso convicciones ideológicas.
Bonilla Gutiérrez (2024) sostiene que los derechos digitales no son una simple extensión de los derechos clásicos, sino un ámbito autónomo en el que la libertad y la dignidad deben ser defendidas con igual vigor ante la vigilancia masiva y el uso indebido de la información personal. En complemento, la UNESCO (2023) ofrece directrices para la regulación de plataformas digitales orientadas a proteger la libertad de expresión, garantizar el acceso a información verificada y exigir rendición de cuentas a los actores privados.
La efectividad de estos derechos depende, en buena medida, de la consolidación del consentimiento digital cualificado: un proceso que ha de ser formalizable, verificable y, sobre todo, revocable en cualquier momento del ciclo de vida del dato.
En tal sentido, el uso de metadatos seguros y las auditorías algorítmicas periódicas funcionan como garantías procesales para certificar la integridad de la voluntad del usuario y detectar alteraciones fraudulentas en el tratamiento de su información.
IV. Ciudadanía digital crítica bajo el principio de corresponsabilidad social
Participar de manera activa en la sociedad de la información va más allá de consumir servicios tecnológicos: implica el desarrollo de competencias éticas que permitan a los ciudadanos actuar con responsabilidad en entornos digitales. El mantenimiento de un ecosistema digital saludable no puede recaer exclusivamente en el legislador, sino que exige un compromiso compartido entre instituciones, empresas, organizaciones de la sociedad civil y ciudadanos, articulado bajo un modelo de gobernanza plural.
Balladares Burgos (2023) identifica la transparencia, la rendición de cuentas y la inclusión como valores éticos fundamentales para una convivencia responsable en las redes sociales e internet, y propone una ciudadanía 3.0 que use el activismo digital como espacio de diálogo y construcción del bien común.
En este marco, el derecho a la educación digital se convierte en la base de una cultura orientada hacia la paz, capaz de rechazar la violencia algorítmica y la discriminación estructural que operan en la red.
Así, la formación temprana en pensamiento crítico y en empatía digital capacita a los ciudadanos para identificar la desinformación y el discurso de odio, favoreciendo prácticas sociales fundadas en el respeto mutuo y la solidaridad intergeneracional.
V. Conclusión
La transición hacia sociedades plenamente digitalizadas no puede producirse a costa de las garantías individuales que han tardado siglos en consolidarse. La vigencia de los derechos fundamentales en la era del algoritmo exige una articulación coherente entre la norma jurídica y la orientación ética.
Solo a través de marcos regulatorios internacionales que corrijan las asimetrías de poder y promuevan la transparencia algorítmica será posible mitigar los riesgos sistémicos que plantean la vigilancia masiva y la manipulación, asegurando que el progreso tecnológico quede subordinado a la dignidad inalienable de la persona y al bienestar colectivo.
En última instancia, la consolidación de una ciudadanía digital crítica es la salvaguarda más efectiva contra la erosión de las libertades en el ciberespacio, entendiendo que la tecnología, desprovista de una guía axiológica, puede convertirse en instrumento de exclusión; orientada por un enfoque humanista, educativo y de corresponsabilidad social, tiene, en cambio, la capacidad de impulsar transformaciones genuinas en favor de la justicia. El reto del siglo XXI consiste en asegurar que la arquitectura de la red sea expresión de los valores democráticos y reflejo de la condición humana en todos los planos de la existencia.
VI. Referencias bibliográficas
Balladares Burgos, J. A. (2023). Principios y valores para una ética digital. Oxímora. Revista Internacional de Ética y Política, (23), 1-16.
Barroso, L. R., y Perrone Campos Mello, P. (2025). Artificial Intelligence: Promises, Risks, and Regulation: Something New Under the Sun. Carr Center for Human Rights Policy, Harvard Kennedy School.
Bonilla Gutiérrez, J. C. (2024). Derechos digitales 2024. México.
García López, I. E., y Juan Pérez, J. I. (2024). Ética aplicada y valores en la era digital: perspectivas y desafíos en los jóvenes universitarios. En Ética aplicada y valores en la era digital (pp. 53-84).
Mantelero, A. (2018). AI and big data: a blueprint for human rights, social and ethical impact assessment. Computer Law & Security Review, 34(4).
UNESCO. (2021). Recomendación sobre la Ética de la Inteligencia Artificial.
UNESCO. (2023). Directrices para la regulación de las plataformas digitales.




