Artículos o noticias

Advierten riesgos de uso irrestricto de inteligencia artificial

• Bookmarks: 36


 

Dos informes publicados este mes advierten sobre los riesgos que conlleva para la privacidad y los derechos de las personas la aplicación irrestricta de la inteligencia artificial (IA), una tecnología en rápida evolución en el mundo.

El informe titulado “El derecho a la privacidad en la Era Digital”, de la Oficina de Derechos Humanos de Naciones Unidas (ACNUDH) señala que si bien la IA puede generar grandes beneficios a la sociedad, de no utilizarse con las debidas protecciones puede poner en peligro los derechos humanos, por lo que recomienda imponer moratorias a la venta y uso de tales sistemas hasta que se establezcan las salvaguardas adecuadas para proteger esos derechos.

Por su parte, el Informe del panel 2021 del “Estudio de cien años de inteligencia artificial” (AI100), reconoce que el avance de esta tecnología llegó a un punto de inflexión. Y advierte sobre la urgencia de “pensar seriamente en las desventajas y los riesgos “de la amplia aplicación de la IA”.

“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, dijo Michelle Bachelet, alta comisionada de la ACNUDH, durante la presentación del informe (20 de setiembre).

“Pero dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, añadió.

El informe de la ACNUDH analiza cómo la IA —a través de la elaboración automática de perfiles, la toma de decisiones y el aprendizaje de máquinas— puede afectar al derecho a la intimidad, pero también los relativos a salud, educación, libertad de movimiento, libertad de reunión y asociación pacífica, y libertad de expresión.

“Los algoritmos de deep learning (aprendizaje profundo) son tan grandes y complejos que es difícil explicar cómo toman las decisiones, y si ellas son discriminatorias o no”. Denis Parra, docente de la Facultad de Ingeniería de la Pontificia Universidad Católica de Chile.

Para evitar esos riesgos es imprescindible que el desarrollo de la IA no sólo considere la tecnología y su correcta aplicación para resolver brechas productivas, dijo Fernando Hentzschel, gerente de Capacidades Tecnológicas de Corfo (Corporación de Fomento de la Producción, Chile).

“Siempre debe ir acompañada de las reflexiones sobre los potenciales problemas éticos que pueda generar. Pero también de las acciones o mitigaciones, en los casos que sea necesario, para que se implemente de manera responsable”, agregó.

El problema es que la IA es una tecnología tan nueva y que evoluciona tan rápido que es difícil anticiparse a sus resultados. Por ello, tanto su desarrollo como la generación de una política que la regule deben ir a la par, comentó Denis Parra.

Si bien cree que el desarrollo y utilización de la IA no deberían detenerse, sí concuerda con la propuesta de moratoria de la ACNUDH respecto de aplicaciones militares. “Utilizarla para fines bélicos puede tener complicaciones serias (por la falta de precisión)”, opina.

Asimismo, señala que uno de los principales escollos a salvar es determinar qué tan peligrosos son los algoritmos que se utilizan y también poder entender cómo funcionan.

Los algoritmos tiene el potencial de ser tan beneficiosos que pueden ayudar a la reactivación económica pos-pandemia, como un programa que está impulsando Corfo en Chile, pero también pueden dejar a alguien sin ayudas sociales, o incluso ampliar la brecha de género en temas tan variados como el acceso a la educación o al financiamiento bancario.

IA: arma de doble filo

En ese contexto, el informe (AI100) asegura que la creciente capacidad para automatizar decisiones a escala es un arma de doble filo, porque puede ser manipulada o utilizada de forma irresponsable, lo que no solo puede terminar en el engaño o discriminación de las personas, sino también en daño físico.

Ese es el caso de los algoritmos entrenados con base en datos históricos, ya que ellos pueden reforzar y exacerbar los prejuicios y desigualdades existentes.

Justamente uno de los parámetros que debieran considerarse en la calificación de riesgo de los algoritmos es la calidad de los datos en los que se basan, aseguró Denis Parra. “Por eso es importante que se definan las métricas que permitan testear la seguridad de los algoritmos”, explicó.

Así, por ejemplo, si por falta de estudios médicos no se tienen datos equivalentes para hombres y mujeres sobre una determinada enfermedad o condición médica, podría generarse una diferencia en la precisión del diagnóstico.

Recién se están comenzando a legislar al respecto en todo el mundo, dice Parra. Mientras que en abril pasado la Unión Europea comenzó a discutir una propuesta, en Estados Unidos el proceso está estancado, entre otras cosas, por sus implicancias económicas.

En tanto, en Latinoamérica la mayoría de los esfuerzos se guían más hacia desarrollar e implementar la IA, antes que regularla, informó. Aún así, Chile presentará durante este semestre su Política Nacional de Inteligencia Artificial, mientras Colombia tiene una Política Nacional de Transformación Digital e Inteligencia Artificial, Perú acaba de aprobar (25 de set.) su Sistema Nacional de Transformación Digital, que considera a la IA como una de las “tecnologías emergentes”, y en Brasil la ley que regula el tema está siendo discutida en el congreso.

Este tipo de dilemas no es nuevo, aseguró Fernando Hentzschel. “Al igual que en oleadas tecnológicas anteriores, hemos tenido que avanzar cuidadosamente como sociedad en acelerar los desarrollos tecnológicos que conlleven beneficios y, al mismo tiempo, resguardar la creación de los marcos regulatorios adecuados que salvaguarden los derechos fundamentales y la seguridad”, dijo.

Por: Scidev América Latina / Lorena Guzmán Hormazábal

Noticiero Científico y Cultural Iberoamericano – Noticias NCC
557 views
bookmark icon
Diseño y Hosting web por