Por: Rodolfo Guerrero Martínez (México).

El Código de Buenas Prácticas en Inteligencia Artificial (en lo sucesivo denominado como CBPIA) representa un hito fundamental en la regulación y gobernanza de las tecnologías de IA dentro del marco legislativo de la Unión Europea. Dicho instrumento normativo, establece los lineamientos fundamentales para los proveedores de modelos de IA de propósito general, con especial énfasis en aquellos que presentan riesgos sistémicos. 

Ahora bien, la implementación de este código marca un precedente significativo en la búsqueda de un equilibrio entre la innovación tecnológica y la seguridad social, estableciendo estándares que determinan las responsabilidades y obligaciones de los actores involucrados en el desarrollo y despliegue de sistemas de IA.

En el contexto actual, donde la Inteligencia Artificial experimenta un desarrollo exponencial y una adopción generalizada en diversos sectores de la sociedad, el presente Código de Buenas Prácticas emerge como una respuesta necesaria ante los desafíos éticos, técnicos y sociales que plantea esta tecnología. 

Por otra parte, la propuesta de marco regulatorio no solo entiende las preocupaciones inmediatas relacionadas con la seguridad y la fiabilidad de los sistemas de IA, sino además, crea una base sólida para el desarrollo responsable y sostenible de estas tecnologías en el futuro, donde la participación de múltiples partes interesadas, incluyendo expertos, académicos, representantes de la industria y organismos gubernamentales, es y será fundamental en la construcción de un código que refleja las diversas perspectivas y necesidades del ecosistema de inteligencia artificial.

Cabe resaltar que, el CBPIA presente como enfoque holístico la materialización por medio de cuatro grupos de trabajo principales, cada uno centrado en aspectos críticos como la transparencia, la evaluación de riesgos sistémicos, la mitigación técnica de riesgos y la gobernanza

Esta estructura permite abordar de manera comprehensiva los diferentes aspectos que influyen en el desarrollo y despliegue seguro de modelos de IA, estableciendo obligaciones específicas para los proveedores y mecanismos de supervisión efectivos. Así como, la incorporación de consideraciones específicas para startups y PYMES demuestra el compromiso del código con el fomento de la innovación y la competitividad en el sector.

En el presente artículo se abordará de forma general más no limitativa el marco de implementación del Código de Buenas Prácticas de IA a través del Borrador General recientemente compartido por la Comisión Europea de la UE por medio de su Oficina de IA.

Código de prácticas de inteligencia artificial de propósito general

El Código enfatiza la importancia de la interoperabilidad entre diferentes modelos y sistemas de IA, lo que es crucial para asegurar que las tecnologías puedan integrarse de manera efectiva en diversas aplicaciones y contextos. Para lograr esto, se proponen mecanismos de supervisión y auditoría que permitan evaluar el cumplimiento de las obligaciones establecidas, así como la documentación técnica que facilite la comprensión y el uso de los modelos por parte de otros proveedores.

En ese sentido, se localiza la garantía de interoperabilidad entre diferentes modelos de IA y sistemas a través de varias estrategias y enfoques tales como:

(I) Documento técnico: debe ser accesible para otros proveedores de sistemas de IA que deseen integrar el modelo, lo que facilita la comprensión y el uso de los modelos en diferentes contextos.

(II) Mejores prácticas y estándares: El Código fomenta la cooperación entre diferentes partes interesadas, incluyendo la compartición de infraestructuras de seguridad de IA y mejores prácticas entre los proveedores de modelos. 

(III) Evaluaciones diversas: Se requiere que las evaluaciones de los modelos de IA se alineen con el contexto de uso planificado, lo que implica que los modelos deben ser evaluados en sistemas representativos de los futuros sistemas de IA en los que se espera que se utilicen.

(IV) Colaboración y transparencia: El Código promueve la transparencia entre los diferentes actores y un esfuerzo conjunto para compartir conocimientos y colaborar en la construcción de una base de evidencia robusta para la seguridad de la IA. 

Ahora bien, respecto a la estructura del Código se basa en un enfoque iterativo, donde se espera que las medidas y submedidas sean refinadas a través de consultas continuas y la retroalimentación de los interesados. A continuación, se describirán los componentes clave:

(1) Medidas: Los elementos clave son la transparencia, la identificación y mitigación de riesgos, y el cumplimiento de la normativa de derechos de autor.

(2) Sub-medidas: Pueden abordar aspectos técnicos, operativos y de gobernanza relacionados con el uso de modelos de IA.

(3) Indicadores Clave de Desempeño (KPIs): Estos indicadores se utilizan para medir el éxito y la efectividad de las medidas y sub-medidas implementadas. Los KPIs permiten a los proveedores evaluar su desempeño en relación con los objetivos establecidos en el Código y facilitar la supervisión por parte de la AI Office.

Finalmente, en esta visón general puntual y realización de interrogantes sobre el presente CBPIA, resulta valioso observar las medidas para proteger los datos personales y la privacidad de las personas. 

En lo sucesivo se hará señalamiento de las medidas clave:

(1) Cumplimiento de la normativa de protección de datos: Los proveedores deben garantizar que sus prácticas de desarrollo y uso de IA se alineen con el Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Esto implica obtener el consentimiento explícito de los usuarios para el tratamiento de sus datos personales y asegurar que se implementen medidas adecuadas para proteger la información recopilada.

(2) Minimización de datos: Se promueve la práctica de recopilar solo aquellos datos que son estrictamente necesarios para el funcionamiento del modelo de IA. Esto no solo ayuda a reducir el riesgo de violaciones de datos, sino que también respeta el principio de minimización de datos establecido en el RGPD.

(3) Transparencia y acceso a la información: Los proveedores están obligados a informar a los usuarios sobre cómo se utilizan sus datos personales, incluyendo la finalidad del tratamiento y los derechos que les asisten. Esto incluye la obligación de proporcionar información clara y accesible sobre las políticas de privacidad y el uso de datos en sus plataformas.

(4) Evaluaciones de impacto sobre la protección de datos (DPIA): Se recomienda que los proveedores realicen evaluaciones de impacto para identificar y mitigar riesgos potenciales relacionados con la privacidad y la protección de datos antes de implementar nuevos modelos de IA. Esto es especialmente relevante en casos donde se manejen datos sensibles o se realicen tratamientos que puedan afectar significativamente a los derechos y libertades de los individuos.

(5) Mecanismos de queja y resolución: Se sugiere establecer procedimientos claros para que los usuarios puedan presentar quejas relacionadas con el uso de sus datos personales. Esto incluye designar un punto de contacto para facilitar la comunicación entre los usuarios y los proveedores, así como implementar procesos adecuados para manejar y resolver dichas quejas.

 

Fuentes de consulta

La Oficina de Inteligencia Artificial: ¿Qué es y cómo funciona? | Ley de Inteligencia Artificial de la UE. (2024). Artificialintelligenceact.eu. https://artificialintelligenceact.eu/es/the-ai-office-summary/

General-Purpose AI Models in the AI Act – Questions & Answers | Shaping Europe’s digital future. (2024). Europa.eu. https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.