Por: Rodolfo Guerrero Martínez (México).
En el presente artículo abordaremos la justicia digital, inteligencia artificial y derechos humanos (1) a través de las reflexiones compartidas en la mesa de expertos donde participaron autoridades académicas y servidores públicos del Estado de Jalisco.
Justicia Digital, Inteligencia Artificial y Derechos Humanos
El pasado sábado 2 de diciembre a las 11 horas de la Ciudad de México se realizó en el marco de las actividades del Pabellón de la transparencia organizado por el Instituto de Transparencia, Información Pública y Protección de Datos Personales del Estado de Jalisco (ITEl) en la edición 37° de la Feria Internacional de Libro de Guadalajara (FIL), la mesa de expertos intitulada “Justicia Digital, Inteligencia Artificial y Derechos Humanos” donde participaron el Doctor Dante Jaime Haro Reyes, titular de la Defensoría de los Derechos Humanos de la Universidad de Guadalajara, el Maestro Jesús Ignacio Escobedo Correa, director de la Escuela Judicial del Supremo Tribunal del Estado de Jalisco, la Mtra. Olga Navarro Benavides, Comisionada Presidente del ITEi y su servidor.
En dicha mesa de expertas se desarrollaron una serie de planteamientos que resaltamos a continuación:
(1) Disrupción jurídica tecnológica en la función jurisdiccional
En la Escuela Judicial del Supremo Tribunal de Justicia del Estado de Jalisco se han establecido una serie de disrupciones por indicaciones del magistrado presidente, el Doctor Daniel Espinosa Licón, quien está convencido de que la parte académica debe acompañar a la función jurisdiccional en aras de lograr una actualización jurídico-tecnológica óptima, obteniendo de esta manera diferentes resultados: (I) Automatizar una serie de tareas que consideramos repetitivas; (II) Uso de herramientas de inteligencia artificial generativas como ChatGPT, donde actualmente documentos de UNESCO, de la Universidad de Guadalajara y de la Universidad Nacional Autónoma de México comparten lineamientos de su uso para educación superior, además de una carta iberoamericana de la utilización de herramientas de IA en la administración pública.
Actualmente, la Escuela Judicial del Estado de Jalisco pertenece a la Red de Escuelas Judiciales de la República Mexicana (REGEM), y en este momento todas sus integrantes discuten sobre la aplicación y uso de la inteligencia artificial generativa para los procesos de formación, profesionalización, capacitación y actualización del funcionariado judicial.
En un tercer punto comprendemos el desarrollo exponencial de plataformas de Justicia Digital y la incorporación de la inteligencia artificial para lograr estar en el próximo nivel, además tener capacitación permanente para el operador jurídico, en ese sentido, el Supremo Tribunal de Justicia del Estado de Jalisco realizo un ciclo de capacitaciones, ya que a partir del 15 mayo del año en curso 2023 iniciaron actividades los dos primeros juzgados familiares en línea, por otra parte, en el mes de agosto comenzó dicha modalidad diferentes juzgados en materia civil, familiar y mercantil, a los cuales se les otorgaron competencia.
Cabe resaltar que, en el proceso de capacitación se registraron 6,000 personas inscritas de las cuales asistieron 1,500, para que los abogados postulantes puedan utilizar las plataformas y herramientas digitales en favorecimiento de sus casos, de los juicios. Sin embargo, perduran las opciones que comprender al papel, actos presenciales y firma autógrafa, negando las bondades del Juicio en línea que provee el Poder Judicial de Jalisco -que hoy en día también entiende las apelaciones en línea en materia penal-.
(2) Derechos Humanos de Cuarta Generación
En el año 2021 la Secretaría de Estado de Digitalización e Inteligencia Artificial del Ministerio de Asuntos Económicos y Transformación Digital publico la Carta de Derechos Digitales con la pretensión de reforzar los derechos digitales contemplados en la Ley Orgánica de Protección de Datos y Derechos Digitales (LOPDGDD).
Dicho documento ilustra nuevas figuras jurídicas como: (I) el derecho a la herencia digital; (II) Protección de las personas mayores en el entorno digital, (III) Derecho a la neutralidad; (IV) Derecho a la participación políticas por medios digitales; (V) Derecho a la educación digital; (VI) Derecho ante la inteligencia artificial; (VI) Derechos digitales en el empleo de las neuro tecnologías, entre otros.
En ese orden del objeto de estudio en curso, resulta primordial recordar que el próximo 10 de diciembre del año 2023 será el 75° aniversario de la Declaración Universal de los Derechos Humanos (DUDH), lo cual supone grandes desafíos para una lograr una tutela efectiva y deseada de los DH ante el escenario que comprende nuevas figuras jurídicas contenidas hoy en su mayoría por Cartas de Derechos Digitales en países como España, Portugal, Perú y México -evidentemente la Carta Iberoamericana-.
Adicionalmente las provocaciones que genera la progresividad del marco de tecnologías de la información y comunicación exhortan el preguntarnos diversas interrogantes respecto a la DUDH como si ¿el proyecto que captura de forma inspiradora en 30 artículos son necesariamente antropocéntricos o pueden incorporar derecho para no humanos? Y de hacerlo, ¿impulsaría u obstaculiza su causa?
En el afán de aportar a las interrogantes generadas hace unas líneas, podemos señalar que las formas de vida inteligentes artificiales están incorporándose cada vez más, un ejemplo clave es la robot Sophia, que fue dotada de nacionalidad por Arabia Saudita en el año 2017. Ello evidencia la intrigante cuestión sobre los derechos de los robots, donde el Parlamento Europeo ya se ha pronunciado, proponiendo que tengan el estatus de personas electrónicas, por supuesto, estos actos causaron que más de 250 científicos y especialistas en ética, entre otros actores firmaran una carta abierta en la que argumentan en contra de dicha medida.
(3) Uso controlado de Chabots basado en LLM
La inteligencia artificial generativa en forma de chatbots hace que la creación de contenido sea rápida y sencilla. Los modelos de lenguaje grande (LLM) más famosos son ChatGPT, Luminous o Bard. En diferentes instituciones, las herramientas en mención son parte de las actividades cotidianas, no obstante, carentes de directrices vinculantes para su uso. El hecho de que los modelos lingüísticos se ejecuten a menudo en la nube crea diversos riesgos para la protección de datos.
En ese sentido, localizamos un primer escenario donde la protección de datos confidenciales está en riesgo debido a que diversas empresas utilizan el mismo modelo LLM en la nube y la información se utiliza para entrenar aún más el modelo y, por lo tanto, los secretos comerciales y los datos pueden transferirse a sus propias partes.
Por otro lado, tenemos un segundo caso donde existe el riesgo de que los datos personales sean mal tratados consecuencia de resultados incorrectos, especialmente en categorías de datos que están especialmente protegidas.
Precisamente ante lo descrito en los párrafos precedentes, la autoridad de protección de datos de Hamburgo en Alemania dio a conocer una lista de verificación para el uso de chatbots basados en LLM como ChatGPT el pasado 13 noviembre de 2023, con el propósito de servir como guía para las empresas y autoridades sobre el uso de chabots entorno a la protección de datos personales. A continuación, compartimos algunas directrices:
(1) Deber realizarse una guía interna clara y documentada sobre si se pueden utilizar las herramientas y bajo qué o cuáles condiciones. Ejemplos específicos de escenarios de uso permitidos y prohibidos pueden ayudar a aclarar esto.
(2) Se requiere una cuenta de chatbot profesional. Los empleados no deben crear cuentas de forma independiente y tampoco utilizar información privada. Si se requiere su uso en un entorno profesional, también se deberá presentar un certificado profesional. Si es posible, estas cuentas laborales no deben contener los nombres de empleados individuales. Es viable utilizar una dirección de correo electrónico creada especialmente para este fin.
(3) En general, no se podrán transmitir datos personales a una inteligencia artificial si el proveedor del chatbot permite que el mismo utilice los datos para sus propios fines en sus términos y condiciones. Esto se aplica a cualquier información que pueda utilizarse para identificar a clientes, socios comerciales u otros terceros, así como a los datos relacionados con los propios empleados de la empresa.
(4) Deben evitarse los mensajes que puedan estar vinculados a personas específicas. No es suficiente con eliminar nombres y direcciones de los registros.
(5) Debe ejercerse la opción de no utilizar los datos con fines formativos. Los modeladores de IA suelen utilizar todos los datos de entrada para entrenar aún más su IA. Los particulares y empleados de otras empresas podrán «reclamar» este contenido.
(6) En general, sólo los humanos pueden tomar decisiones jurídicamente vinculantes. En caso contrario, se deberán seguir los requisitos del artículo 22 del RGPD. Si los empleados aceptan recomendaciones de chatbots basados en LLM, se les debe dar verdadera discreción para tomar decisiones.
(7) Se recomienda regular también otros aspectos, como la protección de los derechos de autor o los secretos comerciales.
Notas
(1) Mesa de experto “Justicia Artificial, Inteligencia Artificial y Derechos Humanos, ITEI, 2023. Véase en: https://t.ly/XOrKs
(2) Directrices para las empresas y autoridades sobre el uso de chabots basados en LLM entorno a la protección de datos personales, 2023. Véase en: https://datenschutz-hamburg.de/news/checkliste-zum-einsatz-llm-basierter-chatbots
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- La falta de nubosidad baja podría explicar el calentamiento global - diciembre 7, 2024
- Premios Nobel abogan por regular correctamente la Inteligencia Artificial - diciembre 7, 2024
- El arcoíris oculto de la naturaleza: más allá de nuestra percepción - diciembre 4, 2024