Por: Mtro. Rodolfo Guerrero Martínez (México).

En el contexto contemporáneo, donde la inteligencia artificial (IA) se erige como motor esencial de la transformación global, Estados Unidos de Norteamérica (EE.UU) ha delineado una estrategia profundamente ambiciosa destinada a consolidar su liderazgo no solo en el desarrollo de capacidades tecnológicas avanzadas, sino también en la proyección y adopción internacional de sus estándares y modelos de gobernanza en IA.

La estrategia se hace tangible a través de iniciativas como el Programa Americano de Exportación de IA, concebido para promover la difusión de sistemas tecnológicos integrales que incluyen tanto infraestructura física —hardware optimizado, servicios en la nube— como modelos y aplicaciones específicas.

Por otro lado, el fundamento de esta proyección global radica en la posición dominante de las empresas estadounidenses, que actualmente controlan entre el 70% y el 95% del mercado internacional de soluciones de IA generativa y aceleradores, tales como las GPU.

No obstante, esta política de expansión tecnológica enfrenta desafíos complejos y rivalidades emergentes. En este sentido, resulta fundamental examinar el impacto de medidas restrictivas como la llamada Regla de Difusión de IA propuesta por la administración Biden (posteriormente anulada por la administración Trump).

Dicha normativa pretendía limitar la exportación de chips de IA, lo que, paradójicamente, podría haber disminuido la competitividad de la industria estadounidense al facilitar la entrada al mercado de fabricantes extranjeros, especialmente de China, y debilitar la influencia nacional sobre los estándares globales.

Las preocupaciones del sector empresarial, centradas en la posible inhibición de la innovación y en las dificultades para acceder a mercados internacionales, constituyeron un elemento crucial en la decisión gubernamental de revertir la medida.

Simultáneamente, el escenario internacional de la IA se caracteriza por una creciente competencia en materia de gobernanza y establecimiento de estándares. Un ejemplo ilustrativo de este fenómeno es el marco regulatorio impulsado por la Unión Europea, específicamente el Reglamento (UE) 2024/1689, conocido como la Ley de IA, vigente desde el 1 de agosto de 2024.

Cabe destacar que, la legislación impone obligaciones armonizadas a los proveedores de modelos de IA de propósito general, entre las que destaca la exigencia de publicitar resúmenes pormenorizados sobre el contenido utilizado para el entrenamiento de modelos, con particular atención a la transparencia en torno a datos protegidos por derechos de autor.

De esta forma, el panorama evidencia que la estrategia estadounidense debe desplegarse en un entorno donde otros actores buscan simultáneamente posicionar y promover sus propios paradigmas regulatorios a escala global.

Por tanto, en el presente artículo se estructurará en torno a ocho preguntas rectoras que guíen el análisis a examinar los objetivos, alcances, desafíos e implicaciones estratégicas del programa estadounidense de exportación de IA, así como su interacción con marcos regulatorios internacionales y la dinámica de competencia global por el liderazgo tecnológico y la definición de estándares en inteligencia artificial.

 

1) ¿Cuál es el objetivo principal del Programa de Exportación de IA Estadounidense establecido por la Administración Trump, y cómo busca asegurar el liderazgo tecnológico de EE. UU.?

El objetivo principal es preservar y extender el liderazgo de EE. UU. en inteligencia artificial y reducir la dependencia internacional de tecnologías de IA desarrolladas por adversarios, apoyando el despliegue global de tecnologías de IA de origen estadounidense.

Este programa se concibe como un esfuerzo nacional coordinado para apoyar a la industria estadounidense de IA mediante la promoción de la exportación de paquetes tecnológicos de IA de pila completa.

Estratégicamente, la iniciativa busca asegurar el liderazgo tecnológico de EE. UU. al garantizar que las tecnologías, estándares y modelos de gobernanza de la IA estadounidense sean adoptados en todo el mundo. Esto, a su vez, fortalecerá las relaciones con sus aliados y consolidará el dominio tecnológico de EE. UU. en las próximas décadas.

Precisamente, la promoción activa de la pila tecnológica de IA completa de EE. UU. busca no solo la comercialización, sino también la implantación de un ecosistema tecnológico que fomente la interdependencia y la alineación con los estándares y valores estadounidenses en el ámbito de la IA

 

2) ¿Qué comprende la definición de paquete tecnológico de IA de pila completa para la exportación y cuál es la implicación estratégica de este enfoque integral?

Eso comprende una serie de componentes esenciales que permiten el funcionamiento integral de sistemas de inteligencia artificial. Según la definición, incluye conceptos primordiales tales como:

(I) Hardware optimizado para IA: Chips, servidores y aceleradores, así como el almacenamiento en centros de datos, servicios en la nube y redes. También se requiere una descripción del grado de fabricación de estos elementos en Estados Unidos.

(II) Sistemas de etiquetado y tuberías de datos (data pipelines).

(III) Modelos y sistemas de IA.

(IV) Medidas para garantizar la seguridad y ciberseguridad de los modelos y sistemas de IA.

(V) Aplicaciones de IA para casos de uso específicos: Ingeniería de software, educación, salud, agricultura o transporte.

En cuanto a la implicación estratégica de este enfoque integral, se resalta que el programa no se limita a la exportación de componentes aislados, sino que busca proporcionar un ecosistema completo que es intrínsecamente dependiente de la tecnología estadounidense.

Al exportar toda la pila, EE. UU. busca una ventaja comercial, además de establecer una infraestructura global de IA que refuerce su influencia tecnológica, sus estándares y sus modelos de gobernanza. Resultando, probablemente a una dependencia más profunda de los países receptores en la tecnología estadounidense, disminuyendo la dependencia de soluciones de IA de adversarios y consolidando el dominio tecnológico de EE. UU. a largo plazo.

3) ¿Cómo se articulan las políticas de control de exportaciones de chips de IA de las administraciones Biden y Trump con el objetivo de promover las exportaciones de tecnología de IA estadounidense, y cuáles son las tensiones inherentes?

Es indispensable reconocer que las políticas de control de exportaciones de chips de IA han experimentado una notable divergencia entre las administraciones Biden y Trump, revelando tensiones inherentes entre la seguridad nacional y la competitividad económica:

(I) Enfoque de la administración Biden. Propuso una Regla Final Provisional (IFR) para un Marco de Control de Exportaciones para la Difusión de la Inteligencia Artificial, que era percibida como sobrediseñada y poco informada. Esta regla imponía límites específicos por país y un régimen de licencias para las exportaciones de chips GPU, exceptuando solo a 20 países de confianza, pero afectando a más de 140 naciones, incluidos aliados clave y socios comerciales como Israel e India.

Empero cuáles fueron los problemas identificados, en un principio, la política de Biden generaría oportunidades de mercado limitadas para las empresas estadounidenses, abriendo la puerta a proveedores extranjeros (como los fabricantes de chips de IA chinos, que son cada vez más competitivos).

Se anticipaban retos de cumplimiento extraordinariamente difíciles e intratables, distorsiones del mercado (con el gobierno eligiendo ganadores y perdedores), el riesgo de alejar a aliados hacia competidores, y la aplicación de un instrumento desenfocado en lugar de dirigirse a usuarios y usos finales específicos.

En ese sentido, la regla se consideraba excesivamente ambiciosa, buscando controlar la velocidad y difusión global de tecnologías avanzadas de IA, y fue desarrollada con prácticamente ninguna consulta a la industria.

(III) Enfoque de la Administración Trump. Decidió rescindir la Regla de Difusión de IA, citando preocupaciones de la industria sobre la supresión de la innovación, la obstaculización del acceso al mercado global y el deterioro de los esfuerzos diplomáticos.

La revocación permite a las empresas de semiconductores de EE. UU. continuar exportando chips de IA avanzados a jurisdicciones que habrían estado sujetas a límites, sin necesidad de autorizaciones adicionales inmediatas.

Ahora bien, entre las restricciones persistentes se puede enmarcar a pesar de la rescisión, las restricciones existentes sobre las exportaciones a China (incluidos Hong Kong y Macao) y los requisitos de licencia estrictos para empresas en la Lista de Entidades permanecen inalterados.

La BIS también reforzó los controles sobre los chips Huawei Ascend, advirtiendo que su uso probablemente viola los controles de exportación de EE. UU. sin una licencia. Se espera que la administración Trump implemente un enfoque más específico por país, posiblemente con negociaciones individuales sobre reglas y límites de exportación.

Por otra parte, la tensión fundamental radica en cómo balancear la seguridad nacional –al restringir el acceso de adversarios a tecnología clave– con la promoción del liderazgo económico y tecnológico de EE. UU. a través de la expansión de su cuota de mercado global. Mientras Biden optó por una restricción amplia para limitar la capacidad computacional de IA global, la administración Trump prioriza la competitividad de la industria estadounidense y el acceso al mercado, buscando abordar las preocupaciones de seguridad nacional mediante enfoques más selectivos y negociados. La extralimitación de Biden, según se sostenía, ponía en riesgo el liderazgo de EE. UU.

 

4) ¿Cuáles son las implicaciones de política exterior y los desafíos diplomáticos derivados de la estrategia de exportación de IA de EE. UU. y sus controles asociados?

La estrategia de exportación de IA de EE. UU. y sus controles asociados tienen profundas implicaciones y desafíos diplomáticos:

(I) Riesgo de daño diplomático y alineamiento forzado. El enfoque previo de Biden, que imponía límites amplios a las exportaciones de chips de IA, corría el riesgo de dañar las relaciones diplomáticas y de impulsar a naciones en desarrollo directamente hacia China si se les negaba el acceso a chips valiosos necesarios para competir en la economía digital.

Dicha política podría obligar a los países a elegir un bando entre EE. UU. y China, lo que para la mayoría podría significar una inclinación hacia China si EE. UU. restringe el acceso a tecnologías esenciales.

(II) Herramienta diplomática a través de la promoción de exportaciones. La estrategia de la Administración Trump, al promover la exportación de la pila tecnológica de IA estadounidense, busca explícitamente fortalecer las relaciones con los aliados y asegurar el dominio tecnológico continuo.

La movilización de herramientas de financiación federal a través del Grupo de Acción de Diplomacia Económica (EDAG) es clave para este fin. La EDAG coordinará una estrategia unificada del Gobierno Federal para promover la exportación de tecnologías y estándares de IA estadounidenses, alineando recursos técnicos, financieros y diplomáticos.

Desde luego, lo descrito incluye coordinar la participación de EE. UU. en iniciativas multilaterales y asociaciones específicas por país para el despliegue y promoción de la IA, además de apoyar a los países socios en la creación de entornos regulatorios, de datos e infraestructuras propicios para la implementación de sistemas de IA estadounidenses.

(III) Desafío a la influencia de adversarios. La política busca disminuir la dependencia internacional de las tecnologías de IA desarrolladas por adversarios. En este contexto, EE. UU. debería contrarrestar los esfuerzos de países como China y Rusia, que han lanzado redes de alianzas de IA (como la Red de Alianza de IA entre los países BRICS), ofreciendo a sus propios aliados y socios acceso a datos, modelos y recursos computacionales de IA.

En síntesis, la política exterior se ve directamente afectada por la elección entre un control de exportaciones amplio, que puede alienar a socios, y una estrategia de promoción más abierta, que utiliza la tecnología como un pilar de la diplomacia y la influencia.

De tal modo que, el desafío es lograr un equilibrio entre negar capacidades a los adversarios y mantener la cohesión con los aliados y socios comerciales que necesitan la IA para su propio desarrollo digital.

 

5) ¿Qué requisitos de cumplimiento y marcos legales deben considerar las empresas que participan en el Programa de Exportación de IA Estadounidense, particularmente en relación con los controles de exportación y la auto-divulgación?

Las empresas que participan en el Programa de Exportación de IA Estadounidense deben cumplir rigurosamente con todos los regímenes de control de exportaciones, regulaciones de inversión externa y políticas de usuario final pertinentes de Estados Unidos, incluyendo el capítulo 58 del título 50 del Código de Estados Unidos y las directrices de la Oficina de Industria y Seguridad (BIS) del Departamento de Comercio.

La importancia de una sólida gestión de cumplimiento se subraya por el caso de Universities Space Research Association (USRA). La decisión del Departamento de Justicia (DOJ) de no procesar a USRA se debió a su auto-divulgación voluntaria de violaciones de las leyes de control de exportaciones, su plena cooperación durante la investigación del gobierno, y la implementación de medidas correctivas significativas en sus controles internos y programa de cumplimiento.

Sin duda, lo mencionado líneas arriba demuestra que la auto-divulgación, la cooperación y la remediación adecuada pueden resultar en la no persecución, estableciendo un precedente bajo la Política de Ejecución de la División de Seguridad Nacional (NSD) del DOJ.

Por otro lado, los beneficios tangibles de la auto-divulgación y la cooperación se basan en los Principios Federales de Enjuiciamiento de Organizaciones Empresariales y la Política de Ejecución de NSD, que establecen una presunción de no procesamiento en ausencia de circunstancias agravantes. Esto destaca el papel esencial de los programas de cumplimiento de control de exportaciones «fuertes». Las organizaciones deben garantizar una formación exhaustiva y continua de los empleados, una supervisión consistente y actuar con rapidez y decisión ante posibles violaciones para reducir riesgos y reforzar su compromiso con el cumplimiento normativo.

Además, la BIS ha publicado nuevas directrices sobre señales de alerta (red flags) y pasos de diligencia debida que las empresas deben seguir para prevenir el desvío de chips avanzados. Si la administración opta por controles adaptados país por país, los procesos proactivos de gestión de licencias serán críticos para mantener el cumplimiento de las exportaciones.

 

6) ¿Cómo se compara o alinea la estrategia estadounidense de promoción de exportaciones de IA con el enfoque regulatorio de la Unión Europea sobre la IA, especialmente en lo que respecta a la transparencia y la gobernanza de datos en modelos de IA de propósito general?

La estrategia estadounidense de promoción de exportaciones de IA y el enfoque regulatorio de la Unión Europea sobre la IA, aunque tienen puntos de convergencia en la aspiración de una IA responsable, presentan diferencias fundamentales en su método y énfasis.

(I) Enfoque de EE. UU. Promoción y Seguridad Nacional: La estrategia de EE. UU. se centra en promover las exportaciones de tecnología de IA para asegurar el liderazgo de EE. UU. y reducir la dependencia de tecnologías de adversarios, con un fuerte componente de seguridad nacional. El objetivo es capturar y retener la mayor parte posible del mercado global.

(II) Enfoque de la UE. Regulación, Derechos y Transparencia: La Unión Europea, a través del Reglamento (UE) 2024/1689 (Ley de IA), establece normas armonizadas para los proveedores de modelos de IA de propósito general, incluyendo obligaciones de transparencia.

De tal forma que la transparencia del contenido de entrenamiento, reconocido en el Artículo 53(1)(d) de la Ley de IA requiere que todos los proveedores de modelos de IA de propósito general elaboren y pongan a disposición del público un resumen suficientemente detallado del contenido utilizado para el entrenamiento del modelo, siguiendo una plantilla proporcionada por la Oficina de IA. Este resumen tiene como objetivo aumentar la transparencia sobre los datos de entrenamiento, incluidos textos y datos protegidos por derechos de autor.

En cuanto a los objetivos que sostiene el resumen se contempla no solo la transparencia en los datos de entrenamiento para facilitar a las partes interesadas (incluidos los titulares de derechos) el ejercicio y la aplicación de sus derechos en virtud del derecho de la Unión, sino además apoyar los derechos de los interesados de los datos, la protección de los derechos de los consumidores, la no discriminación y la diversidad lingüística y cultural, la libertad de ciencia y mercados más transparentes y competitivos.

Como un tercer punto de valor, está el alcance del resumen que debe cubrir los datos utilizados en todas las etapas del entrenamiento del modelo (pre-entrenamiento a post-entrenamiento), incluyendo todas las fuentes y tipos de datos, protegidos o no. debe listar los principales conjuntos de datos y proporcionar una descripción narrativa de los datos raspados en línea (incluyendo dominios relevantes) y otras fuentes (datos de usuario, datos sintéticos).

Sin embargo, es necesario realizar un contraste y alineación entre estas dos esferas:

(I) La estrategia de EE. UU. es pro-mercado y orientada a la seguridad nacional, enfocándose en la exportación y el control estratégico de tecnología. Respecto a la UE, se adopta por un enfoque regulatorio centrado en la protección de derechos fundamentales, la seguridad y la gobernanza transparente de la IA implementada en la Unión.

(II) Divergencia en datos. El paquete completo estadounidense incluye tuberías de datos y sistemas de etiquetado y modelos y sistemas de IA. Si estos modelos se utilizan o despliegan en la UE, estarían sujetos a los requisitos de gobernanza de datos y transparencia de la Ley de IA y el RGPD. La estrategia de exportación de EE. UU. no especifica explícitamente el cumplimiento con leyes de protección de datos extranjeras como el RGPD, aunque sí exige la conformidad con los controles de exportación de EE. UU.

(III) Potencial alineación. A pesar de las diferencias, las regulaciones de la UE buscan fomentar la confianza en la IA, lo que, si se cumple, puede facilitar la adopción más amplia de modelos de IA, incluidos los desarrollados en EE. UU. Sin embargo, los proveedores de EE. UU. tendrían que adaptar sus prácticas para cumplir con las rigurosas normativas de transparencia y protección de datos de la UE.

 

7) Considerando el énfasis de la estrategia estadounidense en los data pipelines y AI models para la exportación, ¿qué preocupaciones específicas de protección de datos y privacidad, según lo destacado por las regulaciones de la UE (RGPD, Ley de IA), ¿podrían surgir para los receptores de estos paquetes tecnológicos de IA estadounidenses?

El énfasis de la estrategia estadounidense en la exportación de data pipelines y AI models como parte de un paquete tecnológico de pila completa plantea varias preocupaciones críticas de protección de datos y privacidad desde la perspectiva de las regulaciones de la Unión Europea, como el RGPD y la Ley de IA:

(I) Presencia de datos personales en el entrenamiento. La Comisión Nacional de Informática y Libertades (CNIL) de Francia, en sus recomendaciones, enfatiza la necesidad de identificar si los conjuntos de datos de entrenamiento contienen datos personales, incluyendo aquellos obtenidos mediante web scraping.

Se requiere un análisis para determinar si el RGPD es aplicable y realizar pruebas de ataque para evaluar la probabilidad de reidentificación. Si los modelos estadounidenses se entrenan con datos personales no tratados según los principios del RGPD, esto podría generar problemas de legalidad para los usuarios europeos.

(II) Transparencia del contenido de entrenamiento (Ley de IA): La Ley de IA de la UE exige una plantilla detallada para el resumen público del contenido de entrenamiento, buscando aumentar la transparencia, especialmente sobre datos protegidos por derechos de autor.

Dicho resumen debe ser generalmente completo, pero no técnicamente detallado. Cubre todas las etapas del entrenamiento y todas las fuentes de datos (protegidas o no), requiriendo la divulgación de los conjuntos de datos principales y una descripción narrativa de los datos raspados en línea (incluidos los nombres de dominio más relevantes).

(III) Conflicto con secretos comerciales. Existe una tensión intrínseca entre la transparencia exigida por la UE y la protección de secretos e información comerciales confidencial por parte de los proveedores de IA. Los proveedores estadounidenses que no estén acostumbrados a estos niveles de divulgación podrían encontrar la obligación onerosa o conflictiva con sus prácticas comerciales.

(IV) Minimización de datos y limitación de la finalidad. El RGPD exige que los datos procesados sean adecuados, pertinentes y limitados a lo necesario en relación con los fines del procesamiento. Si los data pipeline o los modelos de IA estadounidenses incorporan datos personales más allá de lo estrictamente necesario para los fines de uso en la UE, esto constituiría un incumplimiento.

(V) Bases legales y consentimiento. El RGPD requiere una base legal válida para el procesamiento de datos personales (ej., consentimiento, interés legítimo). Si los datos de entrenamiento incluidos en los paquetes tecnológicos estadounidenses no fueron recopilados o tratados con una base legal apropiada para su uso en la UE, esto generaría riesgos de incumplimiento. La obtención de consentimiento para datos raspados o reciclados de otros usos es a menudo inviable.

(VI) Derechos de los Interesados. Los sistemas de IA desplegados en la UE deben permitir el ejercicio de los derechos de los interesados (acceso, rectificación, supresión, limitación, portabilidad, oposición).

Con respecto a los modelos de IA se han entrenado de tal manera que la identificación o supresión de datos individuales sea desproporcionadamente difícil o imposible (como en los casos de memorización de datos por parte de modelos generativos), esto plantea un desafío significativo.

(VII) Gestión de brechas de datos personales. Los sistemas de IA que procesen datos personales en la UE estarían sujetos a las obligaciones de notificación de brechas de datos personales del RGPD, que exige notificar a la autoridad de control en un plazo de 72 horas si existe riesgo para los derechos y libertades de las personas, y a los afectados si el riesgo es alto. Implicando que los receptores de tecnología estadounidense deben tener procedimientos robustos para detectar, evaluar y notificar estas brechas, y los proveedores estadounidenses deberían facilitar la información necesaria para ello.

(VIII) Medidas de protección de datos desde el diseño. La CNIL recomienda medidas como la seudonimización y anonimización de datos, la reducción del riesgo de memorización y el diseño de sistemas que minimicen el consumo de privacidad. Además, la plantilla de la Ley de IA requiere medidas implementadas para respetar las reservas de derechos de la excepción de minería de textos y datos (TDM) y para eliminar contenido ilegal del conjunto de datos de entrenamiento.

Cabe destacar que, los receptores de paquetes tecnológicos de IA estadounidenses en la UE podrían enfrentar un complejo panorama de cumplimiento, que demanda una adaptación significativa para satisfacer las estrictas normativas europeas en materia de privacidad, transparencia y derechos de los interesados, lo cual podría generar barreras de entrada para la tecnología estadounidense si no se abordan proactivamente estas preocupaciones.

 

8) ¿Cuáles son los factores críticos de éxito o los posibles escollos para la estrategia de exportación de IA de EE. UU., considerando tanto las políticas internas como el panorama regulatorio internacional?

La estrategia de exportación de IA de EE. UU. se enfrenta a un delicado equilibrio entre la ambición de dominio tecnológico y las realidades del cumplimiento normativo global y las relaciones diplomáticas. A continuación, se presentarán algunos factores críticos de éxito.

(I) Claridad y controles orientados. La dirección de la Administración Trump de rescindir la Regla de Difusión de IA y orientarse hacia un enfoque más específico por país y negociado es crucial. Un control enfocado en las instalaciones de sistemas de IA de vanguardia (clusters de gran escala) en lugar del conteo bruto de GPU podría ser más efectivo y menos perjudicial para la industria.

(II) Consulta activa con la industria. Evitar la formulación de políticas casi sin consulta industrial es vital. La colaboración con el sector privado garantiza que las regulaciones sean pragmáticas y sostenibles.

(III) Compromiso diplomático proactivo. La movilización de herramientas de financiación federal y la coordinación de una estrategia unificada de diplomacia económica son esenciales. Contrarrestar alianzas de IA de competidores (como los BRICS) mediante la oferta de acceso a recursos de IA a aliados y socios puede fortalecer la influencia de EE. UU.

(IV) Aprovechar la Ventaja Competitiva. EE. UU. lidera el mercado global de soluciones de IA generativa y aceleradores de IA. La estrategia debe capitalizar esta fortaleza, ampliando el acceso al mercado para chips y tecnologías de IA estadounidenses.

(V) Cultura de Cumplimiento Robusta: Fomentar programas internos de cumplimiento sólidos es fundamental para gestionar los controles de exportación y mitigar las violaciones, como lo demuestra el caso de USRA.

Por otra parte, respecto a los escollos comprenden los controles excesivamente restrictivos, entendiendo que las políticas que ahogan la innovación limitan las oportunidades de mercado y otorgan ventajas a competidores extranjeros. La noción de que el gobierno elija ganadores y perdedores al asignar límites de exportación puede distorsionar el mercado y perjudicar a las empresas estadounidenses.

Posteriormente, se localizan la carga de cumplimiento intratable, donde las regulaciones excesivamente complejas o burocráticas pueden imponer desafíos de cumplimiento casi imposibles, desalentando la inversión y la participación.

En tercer término, está la alienación de aliados, es decir, si las políticas de exportación de EE. UU. obligan a los países a elegir bando o restringen el acceso a tecnologías vitales, existe un alto riesgo de dañar las relaciones diplomáticas y empujar a los países hacia soluciones de IA de adversarios.

Otro aspecto relevante es ignorar la divergencia regulatoria global. Entender que la falta de adaptación o la insuficiente atención a los requisitos de protección de datos y transparencia de mercados clave como la Unión Europea (RGPD, Ley de IA) podría crear barreras de acceso insuperables para la tecnología de IA estadounidense.

Y, por supuesto, el conflicto entre transparencia y secretos comerciales, donde la exigencia de la UE de un resumen detallado del contenido de entrenamiento para modelos de IA entra en conflicto con la protección de secretos comerciales de los proveedores estadounidenses, lo que puede obstaculizar la adopción de sus modelos en el mercado europeo si no se encuentra un equilibrio.

Finalmente, es menester entender que el éxito de la estrategia de exportación de IA de EE. UU. dependerá de su capacidad para ser flexible, receptiva a las necesidades de la industria y diplomáticamente astuta, buscando un equilibrio entre la seguridad nacional y la competitividad económica global, y adaptándose al complejo y diverso panorama regulatorio internacional.

 

Fuentes de consulta

Ezell, S. (2025). Export Controls on AI Chips: Biden’s Overreach Risks U.S. Leadership in Tech. Information Technology & Innovation Foundation.

O’Melveny Worldwide. (2025). DOJ Declines Prosecution of Company Following Voluntary Self-Disclosure and Cooperation in Export Control Matter.

O’Melveny Worldwide. (2025). Trump Administration Modifies Direction of Regulating AI Chips.

The White House. (2025). Promoting The Export of the American AI Technology Stack. The White House.

Agencia Española de Protección de Datos. (2021). Guía para la notificación de brechas de datos personales (v. junio de 2021). Agencia Española de Protección de Datos.

CNIL. (2025). Development of AI systems. CNIL recommendations for compliance with the GDPR. CNIL.

European Commission. (2025). Approval of the content of the draft Communication from the Commission – Guidelines on the scope of the obligations for general-purpose AI models established by Regulation (EU) 2024/1689 (AI Act).

European Commission. (2025). Approval of the content of the draft Communication from the Commission – Explanatory Notice and Template for the Public Summary of Training Content for general-purpose AI models required by Article 53 (1)(d) of Regulation (EU) 2024/1689 (AI Act).

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.