Por: Mtro. Rodolfo Guerrero Martínez (México).

De acuerdo con los autores Stefan Buijsman, Michael Klenk y Jeroen Van Den Hoven , se propone el enfoque denominadoDiseño de valores (Design for values) en la ética de la inteligencia artificial (IA), el cual surge en respuesta a las limitaciones de las teorías éticas tradicionales cuando se aplican directamente a los desafíos específicos que propone la IA.

Recientemente en el año 2025 para la primera parte de la obra intitulada «The Cambridge Handbook of the law, ethics and policy of artificial intelligence« se nos invita a recordar, y a su vez reconocer los diferentes intentos de la literatura para sistematizar los desafíos éticos de la inteligencia artificial, incluyendo preocupaciones epistémicas (evidencia inconclusa, inescrutable o engañosa) y normativas (resultados injustos y efectos transformadores), además de cuestiones de trazabilidad y responsabilidad.

Así mismo, se insiste sobre otros marcos éticos que agrupan los principios de la ética de la IA en categorías basadas en la bioética, como la beneficencia, no maleficencia, autonomía, justicia y explicabilidad. Sin embargo, la inclusión de la última como principio ético es objeto de debate.

En ese orden de ideas, se reconfigura el entendimiento sobre las acciones hechas -o el intento de ellas- hechas por la inteligencia artificial, y sin son correctas o no, debido a que este enfoque se centra en la acción-guía, qué se debe hacer en un contexto específico y cómo esto se puede integrar en el diseño mismo de los sistemas de IA.

Cabe destacar que, los marcos generales para proporcionar un idóneo punto de partida en la especificidad del contexto y la naturaleza socio-técnica presentan el objetivo de ser eficientes ante la interpretaciones de términos utilizados en un alto nivel como son la transparencia, justicia y equidad.

Por tanto, el hecho de conseguir una brújula ética de la IA propone el enfoque de diseño de valores, que surge en la década de 1980 para la ética de la tecnología. Manifestando como premisa fundamental que las tecnologías no son neutras en cuanto a los valores, sino que incorporan o encarnan valores particulares.

Ahora bien, en aras de ampliar los alcances de esta propuesta, se plantearán a continuación una serie de puntos relevantes con ejemplos para cada uno ellos, sobre el enfoque de Design for values:

(1) Crítica a la insuficiencia de las teorías éticas tradicionales para la IA: Actualizando el marco que ofrece la ética de virtud, el consecuencialismo y la deontología para reflexionar sobre la moralidad, como consecuencia a la ausencia de granularidad y la especificidad necesarias para abordar problemas concretos de la ética de la IA.

Esto sugiere que su actuación como conceptos sensibilizadores fungen como alertas sobre algunos aspectos éticos en situaciones complejas. Un ejemplo es el intentar derivar reglas para coches autónomos directamente de la deontología (basada en el deber ser) o el consecuencialismo (en base a las consecuencias) para escenarios como el problema del tranvía, lo cual ha resultado en discusiones teórica, no obstante, evidenciando ser poco practicas para la toma de decisión real en el diseño de esta clase de vehículos.

(2) Énfasis en los sistemas socio-técnicos: Justamente, el diseño de valores reconoce que la IA no opera en un vacío, sino dentro de sistemas complejos que involucran tanto componentes tecnológicos como actores humanos, instituciones y normas sociales. De tal modo que indiscutiblemente surgen desafíos éticos en la interacción entre la tecnología y dichos elementos sociales, además que, los sistemas de IA con frecuencia manifiestan una mayor opacidad epistémica que otros sistemas técnicos.

Precisamente como ejemplo ubicamos la implementación de un sistema de reconocimiento facial (IA) en la vigilancia, lo cual no solo plantea cuestiones sobre la precisión del algoritmo (tecnología), sino también sobre cómo las fuerzas del orden (actores humanos e instituciones) lo utilizan, qué regulaciones de privacidad (normas sociales e instituciones) se aplican y cómo afecta a diferentes grupos demográficos (contexto social).

(3) Identificación de los valores relevantes: Comprende la identificación de valores que son importantes para todos los grupos de interés afectados por el sistema de IA, tanto directa como indirectamente. Esto se realiza mediante un enfoque de abajo hacia arriba, donde se buscan las perspectivas y valores de los usuarios, las comunidades y otras partes interesadas. Así también, de manera simultánea se utilizan marcos éticos teóricos y normativos para fundamentar y justificar la relevancia de estos valores. La mera aceptación de una tecnología por parte de los interesados no la hace automáticamente moralmente aceptable.

Para profundizar lo mencionado líneas arriba, exponemos el caso del diseño de una plataforma de redes sociales impulsada por IA, la cual podría identificar valores como la privacidad (importante para los usuarios), la libertad de expresión (valor social y potencialmente un derecho fundamental), y la moderación de contenido dañino (preocupación de la plataforma y la sociedad).

(4) Traducción de valores en requisitos de diseño: Una vez identificados los valores relevantes, el siguiente reto es traducirlos en normas concretas y, finalmente, en requisitos de diseño específicos que puedan ser implementados en el sistema de IA. Este proceso a menudo requiere ingeniería conceptual para definir y refinar los valores en términos operativos.

Por ejemplo, el valor de la privacidad identificado para la plataforma de redes sociales puede interpretarse en normas como minimizar la recopilación de datos personales y proporcionar a los usuarios control sobre sus datos. Y estos, a su vez, podrían generar requisitos de diseño como la implementación de configuraciones de privacidad granulares y el uso de técnicas de anonimización o seudonimización de datos.

(5) Evaluación de las tecnologías a la luz de los valores: El último paso implica evaluar si el sistema de IA, una vez diseñado e implementado, realmente realiza y respeta los valores identificados. Teniendo como requisito el seguimiento continuo y una evaluación post-implementación, ya que los valores pueden cambiar con el tiempo y pueden surgir consecuencias no deseadas. Los requisitos de diseño deben ser lo suficientemente concretos para ser tanto implementables como verificables.

Conforme a lo señalado, un posible escenario es que posterior al lanzamiento de una plataforma de redes sociales con las funciones de privacidad diseñadas, se podría evaluar su efectividad realizando auditorías de privacidad, solicitando retroalimentación de los usuarios y analizando si las políticas de privacidad, asimismo si las configuraciones son comprensibles y fáciles de usar. También se podría monitorear si la plataforma recopila más datos de los necesarios o si los usuarios sienten que tienen control sobre su información.

En síntesis, el Design for values se caracteriza por ser proactivo, con la finalidad de integrar la ética desde las etapas iniciales del desarrollo tecnológico. Igualmente es inherentemente interdisciplinario, requiriendo la colaboración entre filósofos, éticos, diseñadores de IA, ingenieros, científicos sociales y otros expertos para identificar, traducir e implementar valores en los sistemas de IA.

El objetivo final es cerrar la brecha entre los principios éticos abstractos y la práctica del desarrollo tecnológico, asegurando que los valores guíen el diseño y la implementación de sistemas de IA responsables y beneficiosos para la sociedad.

Fuente de consulta

SMUHA, N. A. (Ed.). (2025). The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence. Cambridge University Press. https://doi.org/10.1017/9781009377783

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.