Por: Rodolfo Guerrero Martínez (México).

El jueves 21 de septiembre de 2023 se desarrolló la videoconferencia intitulada “la inteligencia artificial desde la perspectiva de los derechos humanos”, impartida por su servidor Rodolfo Guerrero Martínez en mi carácter como representante legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz” y titular de la Comisión de Legaltech del Capitulo Occidente del Ilustre y Nacional Colegio de Abogados de México A.C.

Dicha conferencia presentó especial énfasis en la inteligencia artificial como parte fundamental en el marco de tecnologías exponenciales, precisamente por ello, el profesional del derecho y en especial el ciudadano, deben conocer cómo utilizarla eficazmente para la simplificación de nuestras labores; el evento digital fue organizado por la Comisión de Habilidades Blandas auspiciada por los Institutos de Derecho Administrativo y de Derechos Humanos del Colegio de la Magistratura y la Función Judicial de La Plata, Argentina.

Cabe destacar que, la videoconferencia desempeñada enfatizó la importancia en el uso de los datos y especialmente la ingesta de ellos en los algoritmos, debido a que el conjunto de estos integra a la inteligencia artificial, le otorgan autonomía.

En esa lógica la relación que existe entre la inteligencia artificial (IA) y los algoritmos (AL) contempla las instrucciones paso a paso, para crear máquinas que aprendan de la experiencia, realicen la reconfiguración ante nuevos escenarios y desarrollen tareas de manera similar a como lo hacemos los seres humanos.

En el presente artículo abordaremos de manera general más no limitada, los tópicos selectos de algoritmos, sus tipos y propuesta de regulación, además de explicar los sesgos relacionados  con el aprendizaje automático y finalmente el deber de educar a los algoritmos

Los algoritmos, sus diferentes tipos y propuesta para regularlos

En el año 780 aproximadamente en Uzbekistán, actualmente Jiva nació el matemático árabe Muhammad ibn Musa al-Khwarizmi, quien dio lugar al término algoritmo, ello al desarrollar fórmulas para resolver ecuaciones de primer y segundo grado. Además de elaborar el primer libro de algebra intitulado “compendio de calculo por reintegración y comparación”.  

Justamente el nombre algebra viene del nombre de al-Jabr del título de la obra, como los escolares diseminaron el trabajo de Muhammad en latín durante el medievo, la traducción de su nombre algorism fue empleada para describir cualquier método de cálculo sistemático o automático (1). 

Entonces, entendemos que un algoritmo informático es un conjunto de instrucciones definidas, ordenadas y acotadas para resolver un problema, realizar un cálculo o desarrollar una tarea. Es otras palabras, un algoritmo es un procedimiento paso a paso para conseguir un fin (2). 

Cabe mencionar que, la Carta Ética Europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno de 4 de diciembre de 2018, nos indica en su glosario la definición del algoritmo como: “Una secuencia finita de reglas formales (operaciones e instrucciones lógicas) que permiten obtener un resultado de la entrada inicial de información. Esta secuencia puede ser parte de un proceso de ejecución automatizado y aprovechar modelos diseñados a través del aprendizaje automático”.

Por otra parte, es relevante que mencionemos las partes que integran al algoritmo como el input (donde se aportan los datos necesarios); el procesamiento (todas las acciones que se deben desempeñar para resolver el problema); y el output (muestra la resolución del problema obtenido). Asimismo, la existencia de diferentes tipos de algoritmos como:

(I) Algoritmo recursivo. Se llama a sí mismo con un valor diferente como parámetro de entrada, que obtuvo luego de haber resuelto el parámetro de entrada anterior. 

(II) Algoritmo dividir y conquistar. El mismo se divide en dos partes. En la primera parte se divide el problema en cuestión en sub-problemas más pequeños del mismo tipo. Igualmente, en la segunda parte se resuelven sus sub-problemas, combinando luego ambas partes para producir la solución final del problema.

(III) Algoritmo de fuerza bruta. Busca ciegamente todas las soluciones posibles para encontrar una o más soluciones que puedan resolver una función.

Considerando lo establecido en cuanto a las partes de AL y algunos tipos de algoritmos (AL), nos conducen a reflexionar sobre la puesta a disposición de instrucciones que generan tipos de IA donde se emplea la combinación lógica e intuición (denominado Deep learning), y los AL que diseñan neuronas humanas, donde comprende el patrón de funcionamiento de cerebro humano.

Con respecto a propuestas para regular el uso de algoritmos, ubicamos un proyecto ley bastante interesante presentado en los Estados Unidos de Norteamérica en el año 2022 intitulado “Ley de responsabilidad algorítmica(3) en la cual se destaca:

  • Autorizar a la Comisión Federal de Comercio (FTC) a crear regulaciones que exijan a las empresas bajo su jurisdicción realizar evaluaciones de impacto de sistemas de decisión automatizados altamente sensibles.
  • Exigir a las empresas que evalúen el uso que hacen de los sistemas de decisión automatizados, incluidos los datos de capacitación, para conocer los impactos en la precisión, la imparcialidad, el sesgo, la discriminación, la privacidad y la seguridad.
  • Exigir a las empresas que evalúen cómo sus sistemas de información protegen la privacidad y seguridad de la información personal de los consumidores.
  • Solicite a las empresas que corrijan cualquier problema que descubran durante las evaluaciones de impacto.
Algoritmos discriminatorios

En la actualidad estamos rodeados de una cantidad ingente de información, en ese sentido, en el año 2016, el World Wide Web Size estableció que comprendíamos cerca de 5,000 millones de webs indexadas. Además de ello, podemos añadir una cifra bastante relevante, tomando como ejemplo a Google que entiende alrededor de 1,800 millones de cuentas, y cada una representa 16 GB de almacenamiento en Google Drive.

Precisamente, el motor de búsqueda más utilizado del planeta brinda 28.8 M de terabytes (TB) a sus usuarios -considerando que un TB es equivalente a 1000 GB o un trillón de bytes-, adicionalmente Google Drive almacena entre 10 y 15 exabytes (presentando un valor de un millón de terabytes).

Ante lo establecido en los párrafos precedentes, resulta evidente que vivimos en la era de la datificación, la cual se explica por el procesamiento de información hasta su conversión en datos, justamente ello otorga la medición, almacenamiento y consulta de los activos informacionales mediante las herramientas tecnológicas. 

Sin embargo, qué sucede con una inadecuada y/o perjudicial instrumentalización de ese universo de datos por parte de los algoritmos, en las próximas líneas desempeñaremos por medio de casos en específico algunos ámbitos cotidianos, profesionales e institucionales donde la desafortunada ingesta de información presenta escenarios de discriminación.

(1) A finales del año 2018, la prensa (4) dio a conocer que Amazon había diseñado un algoritmo para automatizar la selección de personal que daba una puntuación menor a los perfiles de mujeres. Parece ser que el sistema no pasó de la fase de pruebas, ya que se paró cuando se detectó que no seleccionaba a los mejores candidatos de forma neutral, sino que penalizaba a las mujeres por el hecho de serlo. En ese orden de los hechos, cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo «se enseñó a sí mismo que los candidatos masculinos eran una preferencia».

(2) En este caso, Google Ads mostraba más ocasiones anuncios de ofertas de empleo altamente remuneradas a hombres que a mujeres. En ambos casos, los algoritmos detrás de cada uno de esos sistemas discriminaban claramente por razón de género.

(3) En Estados Unidos, el sistema COMPAS proporciona información a los jueces sobre el riesgo de reincidencia de la persona a la que están juzgando. Se demostró que el algoritmo sobrestimaba el riesgo de reincidencia en el caso de personas negras y, por el contrario, el sistema asignaba un riesgo menor del real a las personas blancas. Localizamos que los casos en que los acusados habían acabado reincidiendo, los blancos habían sido clasificados como de riesgo bajo en un 45% de las veces, frente a un 23% en el caso de acusados negros (5).

Ahora bien, resulta importante preguntarnos, ¿los algoritmos son fórmulas matemáticas supuestamente neutras y objetivas? En efecto, eso reza el ámbito conceptual y técnico, no obstante, el sesgo es un hecho de la vida en el aprendizaje automático. En la ciencia de los datos, generalmente se refiere a una desviación de las expectativas, o a un error en los datos, todos estamos condicionados por los entornos y experiencias. Entizando de esta forma que la mayoría de las veces existe un sesgo humano real en los datos o algoritmos.

Sesgos relacionados con el aprendizaje automático

Reafirmamos que el hecho del sesgo es generado a partir una selección desafortunada de datos de diferentes ámbitos y de ciertos grupos de personas, lo cual genera una errónea aleatorización. Por tal razón es indispensable tener claro tipos más comunes de sesgos relacionados con el aprendizaje automático, para ello los detallaremos a continuación:

(1) Sesgo de estereotipo. Presenta los efectos de muestras de datos sesgados donde el aprendizaje de las máquinas impacta en la limitación de la información que pueden apreciar los usuarios, por ejemplo, por razón de género, por ejemplo. Esto como consecuencia de los prejuicios de los científicos y/o programadores que participaron en el entramiento de los datos que se introducen. 

(2) Sesgo de muestreo. Comprende aquellos datos usados para entrenar un modelo que no reflejan con precisión el entorno en el que opera, teniendo como caso de ejemplo un diagnóstico médico en el que solo se considera datos de una población.

(3) Distorsión sistemática del valor o del valor sistemático. Entiende a los errores de medición (en un nivel relativamente sencillo) cuando los datos de entrenamiento han sido capturados a través de una cámara que filtra diversos colores.

(4) Sesgo algorítmico. Desfavorece aquellos grupos que no están correctamente representados en los datos que son usados para el entrenamiento del aprendizaje automático.

El deber de educar a los algoritmos

El mundo afronta nuevos desafíos, uno de ellos es educar, no sólo sobre los algoritmos sino también sobre los derechos humanos, en este caso reconocemos seis generaciones: (1) Civiles y políticos; (2) Económicos, sociales y culturales; (3) Justicia, paz y solidaridad; (4) Derechos de la naturaleza, de los animales; (5) Tecnologías de la información y comunicación; y (6) comprende a seres trans – humanos y en un estado ulterior (posterior) post-humano.

No obstante, los marcos jurídicos continúan con serias ausencias sobre las figuras jurídicas de los derechos humanos de última generación (más allá de establecido en razón la progresividad tecnológica) o también denominados derechos digitales que han sido dados a conocer en diversas cartas de carácter sólo declarativo y no vinculante, la más reciente publicada intitulada “Carta Iberoamericana de Principios y Derechos en Entornos Digitales”.

En ese sentido, sobre el deber de educar a los algoritmos, enfatizamos un principio fundamental de la inteligencia artificial -ya que como habíamos expresado en puntos anteriores del presente artículo, es básico para su función al comprender el conjunto de instrucciones-, este es el de conocer el algoritmo y hacerlo transparente, siendo un factor generador de poder para el usuario y  determinante para el ejercicio de su derecho a conocer y de acceso a la información. 

Finalmente, en el año 2020 fue publicada una entrevista en el sitio web de la UNESCO intitulada “Hay que educar a los algoritmos(6), la cual fue realizada por Agnès Bardon donde converso con los autores del libro L’intelligence artificielle, pas sans elles, Aude Bernheim y Flora Vincent. 

Dicha conversación estableció entre sus preguntas, una muy importante en nuestro objeto de estudio: ¿cómo podrían obtenerse algoritmos más igualitarios? La respuesta es precisa sobre la operación de los bancos de datos, para que lleguen a representar cabalmente a toda la diversidad de la población. Además de mencionar como algunas empresas ya lo hacen y trabajan sobre ellos que tienen en cuenta las diferencias de sexo, nacionalidad o morfología. Como consecuencia de los trabajos publicados sobre las lagunas de los programas informáticos de reconocimiento facial, las compañías han actualizado sus algoritmos para que sean más inclusivos.

Fuentes de consulta

CHABER, A History of Algorithms: From the Pebble to the Microchip, Springer-Verlag, New York, 1999.

VEGA, R. M. (21 de enero de 2021). Qué es un algoritmo informático: características, tipos y ejemplos. España.

PROYECTO de Ley de Responsabilidad Algorítmica (2022). https://www.booker.senate.gov/news/press/booker-wyden-clarke-introduce-bill-requiring-companies-to-target-bias-in-corporate-algorithms

DASTIN, JEFFRY, 2018. Amazon abandona un proyecto de IA para la contratación por su sesgo sexista. https://www.reuters.com/article/amazon-com-contratacion-ia-idESKCN1MO0M4

Broward County Clerk’s Office, Broward County Sherrif’s Office, Florida Department of Corrections, ProPublica. https://www.propublica.org/datastore/dataset/compas-recidivism-risk-score-data-and-analysis

BARDON, Agnès, 2020. Hay que educar a los algoritmos, UNESCO. https://es.unesco.org/courier/2020-4/hay-que-educar-algoritmos

 

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.