Por: Mtro. Rodolfo Guerrero Martínez (México).

El auge innegable de la inteligencia artificial (IA) en los últimos años ha traído consigo una multitud de herramientas y aplicaciones que transforman nuestra interacción con la tecnología y la toma de decisiones. Sin embargo, este progreso tecnológico plantea importantes desafíos éticos, legales, sociales y medioambientales que no deben ser ignorados.

La ética, entendida como la reflexión racional sobre la moral que busca esclarecer el contexto sobre esta esfera, se vuelve esencial para guiar el desarrollo y la implementación de la IA hacia un futuro sostenible y responsable.

Por tanto, en el presente artículo se desempeñarán diez temas relevantes para abordar las diferentes provocaciones éticas cruciales en la era de la inteligencia artificial conforme aquellas interrogantes y juicios críticos correspondientes.

(1) La responsabilidad y rendición de cuentas de la IA

En principio, nos cuestionamos si la ética busca dilucidar el fundamento del deber moral y la responsabilidad, ¿quién es moralmente responsable cuando un sistema de IA autónomo causa un daño o comete un error?

En ese sentido, las normas tradicionales de responsabilidad, como la basada en culpa o dolo, son difíciles de aplicar a una máquina, ya que la intencionalidad o la diligencia debida son conceptos humanos. Conforme a esto, las propuestas normativas y la reflexión jurídica exploran la responsabilidad del creador/fabricante, el usuario, o incluso la creación de un régimen de responsabilidad objetiva basado en el principio de equivalencia (si una actividad humana conlleva responsabilidad objetiva, también debería aplicarse si la realiza un robot).

De tal modo que, enfrentar este reto no es solo técnico, sino una expresión de valores fundamentales.

Por otra parte, ponemos en relieve como juicio crítico la atribución de responsabilidad en la era de la IA autónoma, ya que es uno de los dilemas más urgentes que requieren nuevos marcos legales y éticos, e intentar encajar la IA en figuras legales preexistentes diseñadas para acciones humanas es insuficiente.

Aunque se ha debatido la posibilidad de otorgar «personalidad electrónica» o jurídica a los robots/IA, esto plantea riesgos morales inaceptables y sobrevalora las capacidades actuales de las máquinas. La responsabilidad debe recaer, en última instancia, en los humanos que diseñan, implementan y utilizan estos sistemas, exigiendo transparencia y documentación técnica.

(2) Sesgos algorítmicos y equidad

Como segundo aspecto clave se debe localizar si la ética universal debe defender los derechos humanos y la dignidad igualitaria, ¿cómo podemos asegurar que los sistemas de IA no perpetúen o amplifiquen las injusticias y desigualdades existentes en la sociedad?

Ahora bien, los sesgos y la equidad son desafíos éticos centrales de la inteligencia artificial, donde los sistemas de IA pueden heredar sesgos discriminatorios presentes en los datos de entrenamiento o en los algoritmos mismos, afectando áreas como la contratación o la toma de decisiones.

En ese hilo, combatir los sesgos y buscar la equidad es fundamental para garantizar que la IA no perpetúe injusticias. Se están desarrollando métricas y herramientas para evaluar sesgos demográficos y medir la imparcialidad. Debido a que, la inclusión y la no discriminación son principios éticos clave para el diseño y despliegue de la IA, especialmente en educación.

Con respecto al juicio crítico se enmarca la lucha contra los sesgos, lo cual va más allá de la corrección técnica de datos y algoritmos; implica una reflexión ética profunda sobre los valores que queremos codificar en estos sistemas.

La equidad no es un resultado automático, sino un objetivo que requiere esfuerzo consciente y la colaboración de desarrolladores, expertos en ética, legisladores y la sociedad. Además, la evaluación humana y las pruebas de «hacking ético» son esenciales para complementar las métricas automáticas y detectar sesgos sutiles o discriminación.

(3) Transparencia y Explicabilidad (XAI)

En un tercer tópico de valor ubicamos si la ética busca esclarecer reflexivamente el contexto de lo moral, ¿es necesario que comprendamos completamente cómo los sistemas de IA llegan a sus conclusiones, o basta con confiar en sus resultados?

Es un principio clave que los procesos de la IA sean transparentes, accesibles y explicables, especialmente en la recolección y análisis de datos. Se entiende que la transparencia en la toma de decisiones es un pilar de una relación saludable entre humanos y máquinas.

Por ejemplo, la Comisión Europea promueve el concepto de «Trustworthy AI» (IA fiable) que, entre otras cualidades, implica ser robusta, lo cual requiere cierto nivel de comprensión de su funcionamiento.

A través del juicio crítico se revela la existencia de una tensión inherente entre la complejidad de algunos modelos de IA («cajas negras») y la necesidad humana de comprender el razonamiento detrás de las decisiones críticas. Exigir transparencia total puede ser técnicamente difícil o incluso contraproducente para el rendimiento, pero la explicabilidad adaptada al contexto y al nivel de riesgo (como para sistemas de alto riesgo) es crucial para la confianza, la rendición de cuentas y la posibilidad de auditar y corregir errores o sesgos. Asimismo, la transparencia debe extenderse a las condiciones de uso y la propiedad de los datos.

(4) Autonomía humana y control

Es primordial cuestionarnos sobre si la libertad es esencial para la condición ética humana, ¿cómo podemos garantizar que el creciente uso de la IA no disminuya la capacidad humana de tomar decisiones libres y mantener el control?

Inicialmente, el impacto de la inteligencia artificial en la autonomía humana y la pérdida de control son preocupaciones éticas. A medida que la sociedad confía más en la IA para decisiones críticas, aumenta la dependencia tecnológica, lo que podría debilitar las capacidades humanas.

Por lo tanto, un principio ético fundamental es el enfoque humano, asegurando que la IA complemente las capacidades humanas y que los humanos mantengan el control sobre sus procesos de trabajo. El uso de la IA, incluso en contextos jurídicos, debe respetar la dignidad humana, la capacidad de decisión y la autonomía del usuario.

Como parte del juicio crítico se proyecta que la preservación de la autonomía humana no significa rechazar la IA, sino diseñar e implementar sistemas que empoderen a las personas en lugar de reemplazarlas en la toma de decisiones cruciales. Por ende, el principio de que las decisiones críticas no deben ser dominadas por algoritmos complejos es un cimiento ético innegociable, donde también vinculemos la dependencia tecnológica como un riesgo real que demanda una educación moral y cívica que fortalezca la capacidad crítica de las personas frente a los sistemas tecnológicos.

(5) Privacidad y protección de datos

Hoy en día nos situamos sobre si la dignidad humana implica un derecho fundamental a la privacidad, ¿cómo podemos usar la IA, que a menudo depende de grandes cantidades de datos, sin violar la confidencialidad y el consentimiento informado de las personas?

En ese orden de las cosas, la privacidad y la protección de datos representa retos éticos mayores donde la IA se fundamenta en el procesamiento de un gran número de datos. Así como, garantizar la privacidad implica implementar el consentimiento informado del usuario y mantener la confidencialidad de la información recolectada. La protección de datos no es solo un derecho fundamental, sino la base de la confianza en la tecnología. En contextos sensibles como los hospitales, es crucial la protección de la privacidad del paciente y la seguridad de los datos sensibles.

Ahora bien, como juicio crítico tenemos que la ética de la IA debe equilibrar el potencial beneficio del análisis de datos (por ejemplo, para mejorar la atención médica o la educación) con el derecho fundamental a la privacidad. De esta manera, las regulaciones existentes y futuras, y a su vez los principios éticos, son herramientas para minimizar los desafíos. Resultando necesario un esfuerzo continuo para asegurar que los datos sean anónimos o seudonimizados cuando sea posible y que se garantice el consentimiento informado para su uso.

(6) Impacto de la IA en el empleo y la fuerza laboral

Si la actividad humana siempre está situada en un contexto y tiene implicaciones sociales, ¿cómo debemos enfrentar los cambios en la fuerza laboral y las posibles desigualdades socioeconómicas generadas por la automatización con IA?

Precisamente, el empleo y la automatización son desafíos éticos y socioeconómicos de la IA, donde la integración de esto puede generar inquietudes sobre la sustitución de empleos y poner de manifiesto desigualdades existentes. Para mitigar este impacto, se considera relevante desarrollar alternativas para la reconversión y capacitación de las personas afectadas.

Se debe analizar la forma de proporcionar oportunidades de entrenamiento y formación para que los trabajadores se adapten a nuevos roles en el cambiante panorama laboral en nuevos estadios del conocimiento como la gran analítica de la información, agentes inteligentes e ingeniería de instrucciones (prompts).

Como juicio crítico se presenta que la automatización impulsada por la IA no es inherentemente buena o mala desde un punto de vista ético; su valor depende de cómo gestionemos sus consecuencias sociales.

Es un deber ético de la sociedad anticipar estos cambios y preparar a los ciudadanos a través de la educación y políticas de adaptación para mitigar la desigualdad y asegurar una transición justa. La conversación debe pasar de si la IA puede reemplazar empleos a cómo debemos estructurar la economía y la sociedad para que todos se beneficien del aumento de la productividad.

(7) Sostenibilidad y consumo energético de la IA

Respecto a si la ética debe orientar nuestro comportamiento cotidiano para garantizar la calidad de vida y la habitabilidad del planeta, ¿es éticamente defendible el alto consumo energético y el impacto medioambiental de la IA, especialmente la generativa?

En definitiva, la IA generativa supone un alto consumo energético que podría duplicarse para 2030, donde la sostenibilidad y la proporcionalidad son principios éticos para el diseño, desarrollo y uso de la IA, buscando minimizar la huella ecológica. 

Justamente como juicio crítico consideramos que la integración de la sostenibilidad en su desarrollo un imperativo ético urgente. No basta con reconocer el potencial de la IA para ayudar a resolver problemas ambientales; debemos abordar activamente su propio impacto negativo. De tal forma que, la ética aplicada a la tecnología, al igual que la bioética aplicada a la vida, debe enmarcarse en una ética ambiental más amplia que considere el futuro del planeta.

(8) La IA en Sectores Sensibles: Salud, justicia y educación

La realidad actual plantea si la ética debe aplicarse a todas las ciencias y áreas de la vida humana, ¿qué consideraciones éticas específicas surgen al implementar la IA en dominios que afectan directamente el bienestar y los derechos de las personas?

Conforme a la aplicación de la IA en sectores como la salud, el derecho y la educación propone retos éticos particulares. En hospitales, por ejemplo, se deben considerar aspectos como la responsabilidad civil del equipo de salud, la confianza en la tecnología, la seguridad de los datos sensibles y el respeto a la autonomía y privacidad del paciente.

Por otra parte, en el ámbito jurídico, el uso de la IA debe respetar la dignidad humana, la capacidad de decisión y la autonomía del usuario. Y, en educación superior, surgen desafíos sobre la equidad en el acceso, la dependencia tecnológica, la privacidad y la seguridad de los datos (referidos en los temas precedentes).

La ética profesional en medicina y derecho también puede cambiar donde existen lineamientos específicos para la ética de la IA en educación de organizaciones internacionales.

Ahora bien, el juicio crítico indica que la implementación de la IA en estos sectores requiere un análisis ético y regulatorio profundo y diferenciado, más allá de los principios generales. Además de la colaboración entre desarrolladores, expertos en IA, profesionales del sector (médicos, abogados, educadores), ética, legisladores y ciudadanos es fundamental para establecer un camino ético que garantice que la tecnología sirva al progreso humano sin comprometer la dignidad y los derechos. Principios como la seguridad, la protección, la privacidad y el enfoque humano son especialmente críticos en estos dominios.

(9) La naturaleza de la Inteligencia de la IA y su estatus ético

Si la ética se centra en la dimensión moral del ser humano como «animal racional», ¿podría una inteligencia artificial avanzada, especialmente una «inteligencia general» o «superinteligencia», llegar a ser un sujeto ético con derechos o responsabilidades?

En este marco se debate si las máquinas podrán pensar como humanos o alcanzar una inteligencia general o superior. La inteligencia superior (superinteligencia) podría sobrepasar la humana, llevando a máquinas que sustituyen al ser humano, lo que ha generado propuestas transhumanistas y posthumanistas.

Por otro lado, la inteligencia general busca que una máquina tenga una inteligencia parecida a la humana. Hasta ahora, todos los avances logrados son manifestaciones de IA débil y específica donde la investigación práctica se centra en mejorar capacidades, más que en implicaciones filosóficas sobre conciencia o comprensión.

La capacidad de expresar exigencias jurídicas y morales mediante el lenguaje y la dignidad humana atribuyen a los humanos un estatus ético y legal diferente al mundo animal o a las máquinas. Los robots carecen de los componentes biológicos para ser considerados personas físicas y la idea de personalidad jurídica para ellos es controvertida.

Precisamente, el juicio crítico está basado en la comprensión actual de la IA y la ética, la subjetividad ética, la conciencia y la capacidad de acción moral libre son intrínsecamente humanas. Si bien la especulación sobre la superinteligencia y sus implicaciones éticas es válida para la reflexión a largo plazo, el foco actual debe estar en asegurar el desarrollo ético y responsable de la IA que ya existe y se está implementando.

La atribución de derechos o responsabilidades morales a la IA parece inapropiada, ya que carece de la base biológica, la conciencia y la capacidad de juicio moral inherentes a los agentes morales humanos.

(10) Gobernanza y regulación ética de la IA

Si la ética debe guiar las decisiones y acciones que tienen un impacto profundo en la humanidad y sus valores, ¿cuál es el papel de las leyes y políticas públicas en la promoción de una IA ética y responsable, y cuán efectivo puede ser ante la rapidez del avance tecnológico?

Por tanto, los gobiernos y organizaciones están tomando medidas proactivas para abordar los riesgos y oportunidades de la IA. Ejemplos de ello incluyen la Declaración de Bletchley, el Acta de Inteligencia Artificial de la UE (que clasifica sistemas por riesgo y establece estándares estrictos) y la Orden Ejecutiva de EE. UU.

La gobernanza implica el establecimiento e implementación de políticas públicas para regular el desarrollo, uso y gestión de la IA, considerando la ética. A través de la UE se ha encargado a expertos directrices éticas para una IA fiable. Sin embargo, la celeridad de los avances dificulta el desarrollo de una respuesta legislativa adecuada, sumado a que existe una inmensidad de vacíos legales.

Con respecto al juicio crítico, se demuestra que la regulación es una herramienta esencial, junto con los principios éticos, para minimizar los retos del uso de la IA. No obstante, la ética de la IA no puede depender únicamente de la normatividad, que a menudo va por detrás de la innovación.

Se requiere un enfoque multidimensional que incluya la colaboración entre múltiples actores, el desarrollo de códigos de conducta, la normalización, la certificación y, fundamentalmente, fomentar la ética entre quienes diseñan y desarrollan la inteligencia artificial. La ausencia de un debate público amplio permite que los intereses económicos dominen el desarrollo de la IA, aumentando la opacidad.

 

Conclusión general

En suma, reafirmamos y subrayamos el auge innegable de la Inteligencia Artificial (IA), especialmente de modelos como los Large Language Models (LLM), que representan un avance disruptivo en el procesamiento del lenguaje natural y marcan un punto de inflexión en la tecnología.

Estos modelos son capaces de analizar y generar texto con un nivel de coherencia y fluidez antes inalcanzable y están revolucionando la forma en que interactuamos con la tecnología y aprovechamos el procesamiento del lenguaje natural, con aplicaciones que van desde la generación de contenido y el análisis de información hasta la interacción conversacional y la automatización de tareas.

Este desarrollo acelerado, impulsado por la gran cantidad de datos y la alta capacidad de procesamiento, nos sitúa, como menciona Francisco Ricau, ante un panorama tecnológico de 2025 donde la IA acapara titulares y cambiará nuestra interacción y toma de decisiones, abriendo posibilidades y avances inimaginables.

Sin embargo, con este apogeo y sus promesas vienen responsabilidades y retos éticos, sociales y medioambientales significativos que no pueden ser ignorados. Se destacan riesgos como la generación de información errónea (alucinaciones), la perpetuación de sesgos, la falta de transparencia y explicabilidad en sistemas complejos, así como la protección de la privacidad y los datos. Además, se plantea el alto consumo energético de la IA Generativa, un gran dilema para su sostenibilidad futura, y desafíos en la atribución de responsabilidad por los daños causados por sistemas autónomos.

Filosóficamente, se cuestiona la verdadera comprensión de estas máquinas frente a la mera manipulación de símbolos, y se reconoce que la IA, si no se desarrolla de forma sostenible o sus beneficios se concentran, puede empeorar problemas existentes o generar nuevos.

Finalmente, es fundamental recalcar la necesidad de un marco sólido de gobierno de la IA que incluya una regulación rigurosa, procesos de validación exhaustivos y multidimensionales, y un monitoreo continuo para identificar áreas de mejora y garantizar la fiabilidad y equidad de los sistemas.

 

Fuentes de consulta

Agents Companion. (2025). Recuperado a partir de https://www.kaggle.com/whitepaper-agent-companion

‌Cifuentes, L. M. (2018). Ediciones Nowtilus, S.L. La ética en 100 preguntas. https://www.nowtilus.com/descargas/FragmentoEtica.pdf

Desafíos éticos de la inteligencia artificial implicaciones para la sociedad y la economía. (2023). CONRADO | Revista pedagógica de la Universidad de Cienfuegos, 19(94), 140. https://conrado.ucf.edu.cu/index.php/conrado/article/view/3326/3181

Fluent but Not Factual A Comparative Analysis of ChatGPT and Other AI Chatbots. (2023). Recuperado a partir de https://www.mdpi.com/1999-5903/15/10/336

González Romo, L. R. (2024). La IA como Catalizador Cultural: Reflexiones tras el Festival Aleph. Instituto Federal de Telecomunicaciones – IFT. https://www.ift.org.mx/transformacion-digital/blog/la-ia-como-catalizador-cultural-reflexiones-tras-el-festival-aleph

GT IA Generativa Comisión Inteligencia Artificial y Big Data. (2024). EL CONSUMO ENERGETICO DE LA IA GENERATIVA. https://observatorio-ametic.ai/sites/observatorio/files/public/content-documents/2024-10/EL%20CONSUMO%20ENERGETICO%20DE%20LA%20IA%20GENERATIVA%20-%20%20OCTUBRE%202024.pdf

ITI. (2025). 2025 supondrá el avance de una IA más sostenible y responsable, según los expertos de ITI – ITI. https://www.iti.es/noticias/2025-ia-sostenible-responsable/

‌Laín Moyano, G. (2021). Responsabilidad en inteligencia artificial. Ars Iuris Salmanticensis, 9, 197-232. Recuperado a partir de https://revistas.usal.es/index.php/ais/article/view/AIS202191197232

Management Solutions. (2024). El auge de los large language models: de los fundamentos a la aplicación. Recuperado a partir de https://www.managementsolutions.com/sites/default/files/minisite/static/72b0015f-39c9-4a52-ba63-872c115bfbd0/llm/pdf/auge-de-los-llm-03.pdf

Principios éticos de la educación con inteligencia artificial. (2024). https://observatorio.tec.mx/principios-eticos-de-la-educacion-con-inteligencia-artificial-ia/

Ricau, F. (2025). Inteligencia Artificial y datos: El panorama tecnológico de 2025. ITI. https://www.iti.es/blog/inteligencia-artificial-y-datos-claves-para-entender-el-panorama-tecnologico-de-2025/

Rodríguez Sanz de Galdeano, B. (2024). Daños derivados de la IA en el trabajo. Modelo regulador y responsabilidad civil. Labos, 5 (Número extraordinario ‘Normativa europea sobre inteligencia artificial’), 185-210. https://doi.org/10.20318/labos.2024.9037

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.