Por: Rodolfo Guerrero Martínez (México).

En el presente artículo abordaremos diferentes aspectos de documentos de reciente publicación sobre los temas de inteligencia artificial (IA) a la luz del derecho, tales como la Ley IA de la UE, el nuevo memorando de la Casa Blanca sobre gobernanza, innovación y gestión de riesgos en las agencias federales de los Estados Unidos, y la resolución de la Organización de las Unidas para el aprovechamiento de los sistemas de inteligencia artificial y su desarrollo sostenible.

Nuevo paradigma jurídico-tecnológico: Caso de ley IA de la UE

El 9 de diciembre del año 2023 sucedió un hito histórico tras la aprobación del Reglamento de Inteligencia Artificial, también denominada “Ley IA de la UE o EU AI Act”, primera en su clase a nivel mundial.  Sin embargo, la celebración de los trabajos del Parlamento Europeo para el presente ordenamiento jurídico fueron el 13 de marzo del año 2024 con la finalidad de garantizar la seguridad y el respeto a los derechos fundamentales en armonía con los procesos de innovación tecnológica.

Precisamente, el Reglamento contempla diversas obligaciones para la aplicación de la inteligencia artificial en relación con los riesgos potenciales y al nivel de impacto. En ese sentido, comprenden a los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes fáciles de internet, al igual que las grabaciones de videocámaras de vigilancia.

Cabe resaltar que, referente a los sistemas de alto riesgo se pone en relieve los casos de infraestructura critica, formación profesional, servicios públicos, la impartición de justicia y los procesos democráticos. Además de advertir sobre la evaluación, mantenimiento de registros, transparencia y supervisión humana.

Por otra parte, se puede visualizar y participar a través del explorador de la ley de IA de la UE (con el sitio web: https://artificialintelligenceact.eu/es/ai-act-explorer/), el cual permite leer e interactuar con el contenido de la ley de manera intuitiva. El índice de la ley consta de 12 títulos principales, los cuales muestran un conjunto de artículos.

A continuación, destacamos los títulos II “Prácticas de inteligencia artificial prohibidas”; III “Sistemas de IA de alto riesgo”; y IV “Obligaciones de transparencia de los proveedores e implantadores de determinados sistemas de IA y moldeos GPAI”.

(1) Título II. Artículo 5. I. Quedan prohibidas las siguientes prácticas de IA: a) la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendas la conciencia de una persona o de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un grupo de personas [..];

  1. b) la introducción en el mercado, la puesta en servicio o la utilización  de un sistema de IA que explore alguna de las vulnerabilidades de una persona o un grupo especifico de personas derivadas de su edad o discapacidad […]; c) la puesta en servicio o la utilización de sistemas de IA con el fin de evaluar o clasificar a personas físicas o a grupos de personas durante un periodo determinado de tiempo atendiendo a su comportamiento social o a características personas o de su personales conocidas […].

(2) Título III. Artículo 6. Reglas de clasificación de los sistemas de alto riesgo: un sistema de IA se considera de alto riesgo cuando reúna dos condiciones, a) que este destinado a ser utilizado como componente de seguridad de un producto que entre en el ámbito de aplicación de los actos legislativos de armonización de la Unión (que se encuentra enumerados en el anexo I del propio ordenamiento); b) que sea componente de seguridad con arreglo a la letra a), o el propio sistema de IA como producto deba someterse a una evaluación de conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio con arreglo a los actos legislativos de armonización de la Unión.

(3) Título IV. Artículo 52. Procedimiento: I. Cuando un modelo de IA de uso general cumpla el requisito a que se refiere el artículo 51, apartado 1, letra a), el proveedor pertinente lo notificará a la Comisión sin demora y, en cualquier caso, antes de transcurridas dos semanas desde que se cumpla dicho requisito o desde que se sepa que va a cumplirse. Dicha notificación incluirá la información necesaria para demostrar que se cumple el requisito pertinente. Si la Comisión tiene conocimiento de un modelo de IA de uso general que presenta riesgos sistémicos y que no ha sido notificado, podrá decidir designarlo como modelo con riesgo sistémico.

Oportunidades de sistemas de IA y su desarrollo sostenible

La Asamblea General de la Organización de la Naciones Unidas (ONU) adopto el 21 de marzo del año 2024 una resolución fundamental entrono a la promoción de sistemas de inteligencia artificial seguros y confiables, además que impacten al desarrollo sostenible para toda la sociedad.

Justamente, dicha Asamblea General ha reafirmado su resolución 70/1, de 25 de septiembre de 2015, titulada “Transformar nuestro mundo: la Agenda 2030 para el Desarrollo Sostenible”, su resolución 69/313, de 27 de julio de 2015, relativa a la Agenda de Acción de Addis Abeba de la Tercera Conferencia Internacional sobre la Financiación para el Desarrollo, y la declaración política aprobada en el foro político de alto nivel sobre el desarrollo sostenible celebrado bajo los auspicios de la Asamblea General, que figura en el anexo de su resolución 78/1, de 29 de septiembre de 2023.

Con respecto a notas relevantes, se mencionan los esfuerzos de la Unión Internacional de Telecomunicaciones, en alianza con 40 órganos de las Naciones Unidas, por convocar la plataforma Inteligencia Artificial para el Bien, incluida su cumbre anual, y la puesta en marcha del repositorio de inteligencia artificial de la Unión Internacional de Telecomunicaciones a fin de detectar las aplicaciones responsables y prácticas de la inteligencia artificial para avanzar en los Objetivos de Desarrollo Sostenible (ODS), y la aprobación por la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura de su Recomendación sobre la Ética de la Inteligencia Artificial, de 23 de noviembre de 2021.

También se hace referencia al informe del Secretario General de las Naciones Unidas titulado “Hoja de ruta para la cooperación digital”, así como del establecimiento de la Oficina del Enviado del Secretario General para la Tecnología, para coordinar su aplicación y del establecimiento por el Secretario General de un Órgano Asesor de Alto Nivel sobre Inteligencia Artificial integrado por múltiples interesados y de su informe provisional publicado el 21 de diciembre de 2023.

Finalmente, hacemos referencia al reconocimiento de la ONU sobre la gobernanza de los sistemas de inteligencia artificial a través de las resoluciones que promueven la seguridad, la protección y fiabilidad de la IA para dar agilidad a la Agenda 2030 para el Desarrollo Sostenible, la cual busque promover la transformación digital y el acceso equitativo a sus beneficios, alcanzando los 17 ODS, el desarrollo sostenible en tres dimensiones tal como la económica, la social y la ambiental.

Adicionalmente, destaca la importancia de la cooperación internacional, la colaboración y la asistencia en materia de gobernanza de datos para avanzar en flujos de datos transfronterizos confiables para sistemas de inteligencia artificial seguros.

La presente resolución histórica alienta a los Estados miembros, así como a múltiples interesados de todas regiones y países, incorporando el sector privado, organizaciones internacionales, sociedad civil, medios de comunicación, círculos académicos e instituciones de investigación.

Promoción de la gobernanza, innovación y gestión de riesgos para las agencias de inteligencia artificial

El 28 de marzo del año 2024 fue aprobada la Orden Ejecutiva 14110 por la Oficina de Administración y Presupuesto (OMB) de la Casa Blanca en los Estados Unidos de Norteamérica sobre inteligencia artificial, que tiene como finalidad avanzar en la gobernanza y la innovación de la IA, a su vez de gestionar riesgos que devienen de su uso en el gobierno federal y particularmente de aquellos que impactan tanto en los derechos como en la seguridad del público.

Ahora bien, se realizan diferentes pronunciamientos como designar un director de IA o Chief Artificial Intelligence Officer (CAIO) en cada agencia y cumplir con los requisitos de la ley como: (I) Evaluar si la persona designada necesita autoridad adicional para cumplir con las responsabilidades; (II) Notificar a la Oficina de Gestión y Presupuesto (OMB); (III) Coordinar la implementación del memorando con otras agencias; y (IV) Cumplir con las funciones, responsabilidad, antigüedad, puesto y estructura definidos para la CAIO.

Posteriormente, localizamos acorde a lo señalado línea arriba que, la estructura de los informes definida para el Director de IA de una agenda federal incluye para las agencias estar en la Ley de Responsabilidad y Presupuesto de Gobierno (CFO ACT), dado a que el CAIO debe ser un puesto de nivel de servicio ejecutivo senior, científico y profesional, o líder senior; que las juntas de gobernanza de IA de la agencia deben estar presididas por el Subsecretario de la agencia o su equivalente y vicepresididas por la CAIO; y los director de IA apoyarán a sus respectivos subsecretarios en la coordinación de las actividades de inteligencia artificial en toda la agencia y la implementación de secciones relevantes de la Orden Ejecutiva 14110.

Por otra parte, resulta valioso hacerse la pregunta sobre cuáles son las responsabilidades a cumplir para las agencias federales, en principio designar un director de IA dentro un plazo especifico, después coordinar el uso de la inteligencia artificial en la agencia y promover la información en este campo, como término punto gestionar los riesgos derivados de la IA, mantener el conocimiento de las actividades, apoyar y coordinar la participación en organismos que establecen estándares de IA, así como evaluar y abordar las amenazas relacionadas con la recopilación y uso de datos, entre otros.

Fuentes de consulta

(1) Resolución legislativa del Parlamento Europeo, de 13 de marzo de 2024, sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (COM (2021) 0206 – C9-0146/2021 – 2021/0106 (COD)).

(2) ONU/2024 “Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible”. Véase en: https://documents.un.org/doc/undoc/ltd/n24/065/95/pdf/n2406595.pdf?token=diX2wgwBW7OkUrSS9J&fe=true

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.