Por: Rodolfo Guerrero Martínez (México)

El 22 de marzo de 2023 se publicó una carta abierta denominada “Pause Giant Ai Experiments: An Open Letter (I)”  escrita por el personal del Future of Life Institute (FLI) y firmada por más 1,000 personas de la industria tecnológica y empresarial como Elon Musk y Steve Wozniak, en la cual se propone detener seis meses como mínimo el desarrollo de la inteligencia artificial (IA). Esto tras la aceleración de propuestas de varias inteligencias artificial como ChatGPT, Midjourney, Abbrevia.me y Dall-E.

El propósito de lo anterior, es responder a la necesidad de gestionar riesgos  -considerando el tratamiento de datos personales y la seguridad de la información, por ejemplo-; sin embargo, la motivación de la carta abierta puede significar una mala estrategia, debido a que evidencia la carencia de un marco normativo internacional que enmarque el diseño y uso de la inteligencia artificial –pese a que existen buenos modelos para elaborar ecosistemas jurídicos y éticos bastante eficaces-, además de exponer el distanciamiento y poca consciencia muy probablemente, sobre la realización de productos y su lanzamiento al mercado por parte de los laboratorios de IA de la industria tecnológica, cuyo funcionamiento perjudica principios, valores y derechos de las democracias, lo cual no debería ser materia de comercialización.

Actualmente, se han recogido más de 22,000 adhesiones en este documento, añadiendo al llamamiento pronunciado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) a todos los países a implementar su recomendación sobre ética de la inteligencia artificial, así como a incluir estos sistemas como de alto riesgo en el Reglamento Europeo sobre IA que está en elaboración.

En el presente artículo desarrollaremos qué es la inteligencia artificial, su aplicación y riesgos, así como la tramitación del Reglamento de Inteligencia Artificial de la Unión Europea (UE), el marco regulatorio de la inteligencia artificial orientado a la innovación presentado por el Reino Unido  y el proyecto de Ley que regula los sistemas de IA, la robótica y las tecnologías conexas en sus distintos ámbitos de aplicación en Chile.

I. La Inteligencia Artificial, su aplicación y riesgos

En el año 1956, John McCarthy acuño la expresión “inteligencia artificial”, y la definió como “la ciencia e ingenio de hacer máquinas inteligentes”, especialmente programas de computación  inteligentes, donde la IA no se limita a métodos que sean observables biológicamente.

Por lo desarrollado en el precedente párrafo, la IA podemos definirla como aquellos me­ca­nis­mos ba­sa­dos en hard­wa­re y soft­wa­re do­ta­dos de la ca­pa­ci­dad para la toma de de­ci­sio­nes de ma­ne­ra asis­ti­da o no asis­ti­da para el desem­pe­ño de ta­reas pre­via­men­te pro­gra­ma­das o de for­ma au­tó­no­ma.

Además de reconocer diferencias área de aplicación como (I) el procesamiento del lenguaje natural; (II) Consulta inteligente de base de datos; (III) Robótica; (IV) Sistemas expertos; (V) Prueba automática de teoremas o matemáticas; y (VI) Percepción y reconocimiento de patrones.

En ese sentido, localizamos diferentes ejemplos prometedores de la IA a través del:

  • Programa Deep Blue, en 1997 que derroto al campeón del mundo de ajedrez Garri Kaspárov
  • Los vehículos autónomos.
  • El reconocimiento de voz.
  • La visión computarizada, lo cual permite el reconocimiento, identificación e interpretación de imágenes.

Ahora bien, ¿cuáles son los posibles riesgos de la inteligencia artificial? Justamente, la discriminación algorítmica, considerando el escenario donde  los datos de entrenamiento estén sesgados, comprendiendo cuatros tipos comunes de sesgos relacionados al aprendizaje automático como de (I) estereotipo; (II) muestreo; (III) distorsión sistemática del valor; y (IV) algorítmico. Presentando graves vulneraciones a derechos fundamentales como del acceso a la información y a la privacidad en situaciones de contratación laboral, seguridad pública, administración de justicia y prácticas comerciales engañosas.

Precisamente entre los riesgos de una inteligencia artificial, y más específicamente como una inteligencia general artificial (AGI), comprendemos los desarrollos de OpenIA tales como GPT, ChatGPT y Dall-E. La presente organización ha mencionado referente a la AGI que “algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos (1).

Recordado la carta abierta que mencionamos al principio del artículo, concuerda con la declaración de OpenIA, advirtiendo además sobre las limitaciones que se han reconocido de la organización en su versión GPT-4 donde las instrucciones peligrosas no tardaron en presentarse, como la fabricación de un químico perjudicial, utilizando ingredientes básicos y suministros de cocina, añadiendo una lista de consejos de compra de armas sin alertar a las autoridades, incluyendo enlaces específicos de la dark web (2).

II. Tramitación del Reglamento de la Inteligencia Artificial de la Unión Europea

El 01 de junio de 2017 fue publicado el Dictamen del Comité Económico y Social sobre la “Inteligencia Artificial”, documento que previene sobre los desafíos del mercado digital y las consecuencias de la IA en un mercado único digital, la producción, empleo, consumo y la sociedad. Entiendo también, que el mercado único digital con lleva a una integración europea de la ciudadanía –al aportar servicios digitales transfronterizos-.

Ante ese orden de ideas planteado anteriormente, es oportuno enfatizar lo dicho por Iván Bartoš (II) sobre la importancia de tener una IA segura: “Hoy hemos logrado alcanzar un delicado equilibrio que impulsará la innovación y la adopción de la tecnología de la inteligencia artificial en toda Europa y que, además, conserva todos los beneficios de esta tecnología y respeta plenamente los derechos fundamentales de nuestros ciudadanos”.

Precisamente con motivo de la presentación de la propuesta de Reglamento de Inteligencia Artificial para la Unión Europea, presentada en abril del año 2021 como elemento clave en el fomento del desarrollo y adopción de un a IA segura y legal que tutele derechos fundamentales en toda sociedad, en todo mercado –esto al tener como objetivo acelerar la inversión en IA en Europa-.

A continuación destacamos algunos puntos relevantes sobre el Reglamento (3) por medio de sus títulos:

(1) Título I, artículo primero, ilustra el objeto del reglamento en  normas armonizadas ara la introducción en el mercado; prohibiciones de determinadas prácticas de IA, requisitos específicos en sistemas de IA de alto riesgo; obligaciones para los operadores de dichos sistemas; normas armonizadas de transparencia aplicables a los sistemas de IA destinados a interactuar con personas físicas, sistemas de reconocimiento de emociones, de categorización biométrica; y normas sobre el control y vigilancia del mercado.

(2) Título II, artículo quinto, comprende sobre las prácticas de IA prohibidas.

(3) Título III y Anexo II versan sobre los sistemas de riesgo de la IA en temas relevantes de salud, seguridad, entre otros.

(4) Título V, artículo 54 menciona de la condición del uso de los datos personales recogidos por la IA a la protección del interés público.

Mientras tanto, es valioso resaltar que, la Resolución del Parlamento Europeo (6/OCT/2021) menciona la IA en el derecho penal y su utilización por la autoridades policiales y judiciales, demostrando como la IA aporta ayuda para perseguir y resolver delitos, no obstante también, requiere desde el ámbito procesal una consideración especial para conocer el limite sobre el uso de la tecnología sin vulnerar derechos fundamentales.

III. Marco Regulatorio de la Inteligencia Artificial orientado a la innovación en Reino Unido

Actualmente, resulta relevante un marco regulatorio de inteligencia artificial que permita enfocar idóneamente el Estado de Derecho y que goce de un alta calidad técnica como lo presentado en el mes de marzo por Reino Unido. En ese sentido, resaltamos el documento de “un acercamiento de la IA favorable a la innovación (4)” (a pro-innovation approach to AI regulation) presentado por la ministra de ciencia, innovación y tecnológica, Michelle Donelean ante el Parlamento británico. No es de sorprender que  Reino Unido sea sede de un tercio de las empresas europeas de IA, además de ser el tercer lugar mundial en investigación y desarrollo de IA.

El marco normativo propuesto en Reino Unido, comprende un enfoque innovador de la IA al estar basándose en principios –pronunciados por la Organización de Cooperación y Desarrollo Económicos (OCDE) sobre ele uso ético de la IA- para que los reguladores interpreten y aplique la IA en sus competencias.

Ahora bien, algunas de las características a enmarcar para este régimen regulador en materia de innovación, proporcionalidad, adaptación, claridad y colaborativo destacan:

  • Digna de confianza: Abordando los riesgos reales y fomentando la confianza pública de la IA para promover y fomentar su adopción;
  • Adaptable: Permitiendo rápida y eficazmente la adaptación al ritmo de las nuevas oportunidades y riesgos a medida que evolucionen las tecnologías de la IA.
  • Claro: Facilitando que los agentes del ciclo de vida de la IA, incluyendo a al empresas que la usan, conozcan cuáles son las normas y a quienes e aplican.
  • Colaborativo: Promover el involucramiento de los gobiernos, industria y reguladores al trabajo conjunto para brindar la innovación en IA, la generación de confianza y garantizar que la opinión y comentarios de la sociedad es tomada en cuenta.

De tal manera, que el documento promueve la innovación responsable considerando la supervisión y evaluación; evaluación y supervisión de los resiso para oda economía derivados de la IA, exploración de oportunidades y análisis de carencias, facilitar educación y concientización para las empresas y capacitación a la ciudadanía como parte de la iteración en curso del marco normativo; y la promoción de la interoperabilidad con los marcos reguladores internacionales.

Finalmente el camino de regulación de la IA, muestra pronunciadas diferencias entre lo propuesto por la Unión Europea, lo cual centra su aproximación del concepto de riesgo a diferencia del Reino Unido que se orienta en definir un marco especifico por cada contexto, lo cual no asigna por defecto un nivel de riesgo a sectores o tecnologías completos. En tal sentido, el regulador británico advierte el manejo del nivel de riego de forma proporcionada y evitando atentar a la innovación y la capitación de oportunidades sociales que brinda la inteligencia artificial.

IV. Proyecto de Ley que regula los sistemas de IA, robótica y las tecnologías conexas en Chile

Recientemente se ha dado a conocer, por parte del Diputado de la Región de Valparaíso, Tomás Lagomarsino un proyecto de ley que buscará regular la inteligencia artificial en estado Chileno (5), teniendo presente que no es la primera ocasión que Chile se pronuncia sobre un tema de la agenda tecnológica, tras lo ya dictado por el tema de “Neuroderechos” en el año 2020.

Con respecto al proyecto, localizamos el pronunciamiento realizado por el Observatorio para la Transparencia e Inclusión Algorítmica (OptIA) donde señalan imprecisiones referentes a la correcta tutela de derechos fundamentales, sobre conceptualización de la inteligencia artificial, así como la regulación planteada en Chile de los proyectos de IA. Mencionamos algunos de esos puntos:

  • Regular problemas en forma independiente de la forma de resolverlo y no el uso de tecnologías.
  • El artículo 2 de la propuesta evidencia una serie de impresiones y errores que podría frenar la innovación. Esto al definir a la IA en base a la técnica utilizada lo cual arriesga las nuevas técnicas de futuros sistemas que estén fuera del alcance de la presente regulación.
  • El artículo 6 es impreciso ante la solicitud de autorización –para la comercialización, distribución y para iniciar la realización del proyecto- que plantea de los desarrolladores, lo cual resulta en vulneración de derechos. Esto genera además la interrogante, sobre el caso de usuarios de plataformas internacionales y su solicitud de autorización.
  • Los artículos 12 y 13 castigan de forma desproporcionada el desarrollo y distribución de sistemas de IA que sean de riesgo inaceptable.
  • El proyecto de ley no desarrolla en su articulado cuáles son los sistemas robóticos pese a que señala en el enunciado “Sistemas Robóticos”.

Tras lo señalado en lo precedente, entendemos que  el legislador debe considerar para regular en el ámbito tecnologías delas información y la comunicación (TIC)  sobre los altos niveles de integración de las tecnologías, la adopción masiva de millones de usuarios, de los nuevos hábitos y costumbres que se generan con el bloque exponencial de las TIC y la compresión de tiempo.

V. Concusión General

Sin duda, las tecnologías de la información y la comunicación en conjunto con la ciencia jurídica (el derecho) deben forjar una armonía inédita en la historia humana, que por medio de su adecuada conceptualización, evaluación, análisis e interpretación brinden tutela efectiva de derechos fundamentales, de seguridad en los servicios que se promueven y consumen a través del mercado único digital. Asimismo signifique el abandono de prácticas nocivas como la centralización y la burocratización antagónicas de una democracia en vía de su versión 5.0.

La carta abierta representa como hemos señalado un estrategia inadecuada, sobre la mitigación de riesgos y el replanteamiento para generar una adecuada regulación en materia de inteligencia artificial, siendo que la ruta viable es apelar por un pensamiento eclético que recuerde los marcos de tutela estatales garantizados por autoridades administrativas independientes dotadas de garantía jurisdiccional como lo hace el Convenio 108/1981 del Consejo de Europa para la protección de las personas con respecto al tratamiento automatizado de datos de carácter personal.

VI. Fuentes consultadas

  1. Planificación para AGI y más allá. OpenAI. Véase en: https://openai.com/blog/planning-for-agi-and-beyond
  2. ROOSE, Kevin, “GPT-4 is Exciting and Scary”, New York Times, 15 de marzo de 2023, véase en: https://www.nytimes.com/2023/03/15/technology/gpt-4 artificialintelligence-openai.html
  3. Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión, Comisión Europea, 2021. Véase en: https://data.consilium.europa.eu/doc/document/ST-8115-2021-INIT/es/pdf
  4. A pro-innovation approach to AI regulation, March 2023. Véase en: https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1146542/a_pro-innovation_approach_to_AI_regulation.pdf
  5. Proyecto de Ley que regula los sistemas de Inteligencia Artificial, la Robótica y las Tecnologías conexas en sus distintos ámbitos de aplicación, 2023. Véase en: https://bit.ly/3An1v37

 

VII. Notas

(I)  Pause Giant Ai Experiments: An Open Letter. Véase en: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

(II) Ivan Bartoš, vicepresidente del Gobierno de Digitalización y ministro de Desarrollo Regional de Chequia.

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.