Por: Mtro. Rodolfo Guerrero Martínez (México).
El panorama internacional de la gobernanza de la Inteligencia Artificial (IA) se encuentra en un estado de evolución constante, caracterizado por la delicada balanza entre la creciente competencia global y el compromiso con la alineación y cooperación internacionales en materia de gobernanza y seguridad de la IA.
No obstante, la cooperación global y el comercio internacional siguen siendo esenciales para materializar los beneficios económicos de la IA y, al mismo tiempo, gestionar eficazmente sus riesgos inherentes.
A medida que los principios de alto nivel de la IA se traducen en políticas concretas y marcos regulatorios distintivos, los países gestionan las tensiones entre las prioridades competitivas y cooperativas. Para lograr un progreso significativo hacia una gobernanza internacional efectiva de la IA, es fundamental una comprensión clara y detallada de cómo cada país aborda la gobernanza de la IA en la práctica.
En ese orden de ideas, el proyecto AI governance around the world del Alan Turing Institute busca justamente mapear este paisaje en evolución a través de una serie de perfiles de países, basándose en un marco consistente que describe los objetivos, principios, definiciones, iniciativas políticas clave y características de los sistemas de estandarización.
Por tanto, en este artículo se realizará de forma general más no limitativa distintas aproximaciones que las principales jurisdicciones están adoptando para gobernar una tecnología que promete transformar profundamente nuestra sociedad.
Enfoques regulatorios divergentes y su impacto global
Las distintas jurisdicciones han adoptado enfoques notablemente variados para la gobernanza de la IA. La Unión Europea (UE), por ejemplo, ha optado por una estrategia de gobernanza de la IA más estricta que la mayoría, estableciendo requisitos legalmente vinculantes para garantizar que las tecnologías de IA se desarrollen y utilicen de manera segura y responsable, minimizando los riesgos para la salud, la seguridad o los derechos fundamentales de sus ciudadanos.
La piedra angular de este enfoque es la Ley de IA de la UE, que entró en vigor el 1 de agosto de 2024, estableciendo un marco regulatorio basado en riesgos para el desarrollo, la comercialización y el uso de tecnologías de IA en la Unión. Dicho marco incluye usos prohibidos para sistemas de IA que plantean un riesgo inaceptable (como la manipulación del comportamiento o la puntuación social) y requisitos estrictos para los sistemas de IA de alto riesgo (que implican sistemas de gestión de riesgos, procesos de gestión de datos, transparencia, precisión, robustez, ciberseguridad y supervisión humana).
Cabe destacar que, lo más significativo es que las normas de la UE tendrán implicaciones transfronterizas, aplicando a productos y servicios comercializados dentro del mercado europeo, así como a aquellos que, aunque no se introduzcan en la UE, impacten a personas físicas residentes en ella.
En contraste, países como Canadá e India han mostrado un interés inicial en la promoción de la innovación antes de considerar la regulación. Canadá, por ejemplo, pasó de una estrategia de IA centrada en la innovación en 2017 a la introducción de la Ley de IA y Datos (AIDA) en 2022, la cual fue inspirada en parte por la Ley de IA de la UE.
Sin embargo, la AIDA fue suspendida en 2025 debido a cambios políticos, dejando su futuro incierto. La AIDA proponía un enfoque basado en riesgos, aunque utilizaba el lenguaje de alto impacto en lugar de alto riesgo, y a diferencia de la Ley de IA de la UE, no contemplaba categorías de usos prohibidos.
En cuanto a la India, es relevante señalar que su estrategia se ha orientado primordialmente hacia la promoción de la adopción de tecnologías de IA, con el objetivo de impulsar el crecimiento económico y propiciar un impacto social favorable. Si bien no existe, hasta el momento, una legislación integral específica dedicada a la IA, el gobierno indio ha comenzado a implementar medidas restrictivas fundamentadas en el marco normativo de las leyes de Tecnologías de la Información vigentes, particularmente la Ley de Tecnología de la Información del año 2000, a fin de delimitar adecuadamente el comportamiento de las plataformas basadas en IA.
Por otro lado, Singapur ha optado por un enfoque claramente orientado a la innovación, priorizando el despliegue estratégico de la IA en sectores considerados de alto impacto socioeconómico. A diferencia de la adopción de regulaciones específicas para la IA, dicho país ha puesto en marcha iniciativas articuladas que buscan incentivar tanto el desarrollo como el uso responsable de la inteligencia artificial, principalmente a través de directrices voluntarias como el Modelo de Marco de Gobernanza de IA y el programa AI Verify.
Es importante destacar que el Modelo de Marco de Gobernanza de IA opera como un instrumento de traducción de principios éticos de alto nivel en recomendaciones concretas para el sector privado, haciendo énfasis en aspectos como la explicabilidad, la transparencia, la equidad y un enfoque centrado en el ser humano.
El rol crucial de la estandarización
La estandarización está llamada a desempeñar un papel central en el marco regulatorio de la IA. En la UE, las normas europeas armonizadas, desarrolladas por Organizaciones Europeas de Normalización (OEN) a petición de la Comisión Europea, proporcionarán las especificaciones técnicas necesarias para apoyar la implementación de la Ley de IA de la UE.
Aunque su adopción es voluntaria, otorgan a las empresas una presunción de conformidad con requisitos específicos de la Ley de IA de la UE. Esto subraya la importancia de la infraestructura de gobernanza efectiva que la UE busca desarrollar.
A nivel internacional, la Comisión Europea ha declarado que la configuración de normas internacionales es una prioridad clave para la UE, en línea con los objetivos de promover la competitividad global y fomentar el comercio internacional. Países como Canadá, India y Singapur también están activamente involucrados en el ámbito de la estandarización de la IA.
El Consejo de Normas de Canadá (SCC) ha iniciado un programa piloto para probar la aplicabilidad nacional de normas internacionales y participa activamente en ISO/IEC JTC 1/SC 42.
De manera similar, India, a través del Bureau of Indian Standards (BIS), monitorea las oportunidades de alineación con los esfuerzos de estandarización internacional y ha adoptado al menos 19 normas ISO/IEC relacionadas con la IA como normas indias. Singapur, mediante su Comité Técnico de IA (AITC) bajo el Consejo de Normas de Singapur (SSC), trabaja en la adopción de normas internacionales y el desarrollo de normas locales, habiendo adoptado ISO/IEC 42001:2023 como norma nacional.
Desafíos comunes y perspectivas futuras
A pesar de los avances regulatorios y de estandarización, la velocidad del desarrollo de la Inteligencia Artificial resenta desafíos significativos. La investigación en IA es uno de los campos científicos que avanzan más rápidamente, lo que hoy es vanguardia, mañana será anticuado. Esto subraya la dificultad de establecer marcos regulatorios que puedan seguir el ritmo de la innovación tecnológica.
Uno de los retos más profundos es el problema de la alineación: asegurar que los objetivos y valores de las IA coincidan con los de la humanidad, entendiendo que la inteligencia artificial no nace con instintos que salvaguarden la supervivencia y prosperidad humana; son creaciones, lo que plantea la cuestión de si sus metas podrían no alinearse con las nuestras, llevando a acciones que nos perjudiquen.
El intento de incorporar valores humanos profundos en la IA, monitorear su comportamiento y, si es necesario, apagar las IA deshonestas es una tarea en la que equipos como el de superalineación de OpenAI han trabajado, aunque su desmantelamiento en 2024 subraya la complejidad y los conflictos de intereses existentes.
Además, la carrera por desarrollar Inteligencia General Artificial (AGI) y Superinteligencia Artificial (ASI) implica enormes inversiones (como el supercluster Stargate de Microsoft y OpenAI, rumoreado en 100 mil millones de dólares).
Esta inversión masiva ha generado preocupación sobre la formación de una burbuja de IA, donde empresas nuevas con pocos productos o ingresos se valoran en miles de millones de dólares. Aunque históricamente las burbujas tecnológicas han precedido a períodos de crecimiento renovado, las consecuencias a corto plazo pueden incluir pérdidas de empleo y desaceleración económica.
Finalmente, el impacto ambiental de la expansión de la IA es una preocupación creciente. La construcción y operación de grandes centros de datos y superclusters de IA requieren cantidades inmensas de electricidad y agua.
Esto ha llevado a compañías como Microsoft y Google a exceder sus compromisos ambientales y aumentar sus emisiones de gases de efecto invernadero. La fabricación de chips especializados (GPUs), esenciales para la IA, también es un proceso intensivo en recursos y energía, que ya ha provocado, por ejemplo, que los gobiernos prioricen el agua para los fabricantes de chips sobre la agricultura en Taiwán.
La gobernanza de la IA en 2025 es un mosaico de enfoques, desde la regulación dura hasta las directrices voluntarias, todas buscando un equilibrio entre la promesa de la innovación y los riesgos inherentes. La necesidad de una comprensión informada, una cooperación internacional robusta y una vigilancia constante sobre las implicaciones legales, éticas, económicas y ambientales es más apremiante que nunca.
Fuentes de consulta
Alania, A. (2025). AI governance around the world: Singapore. The Alan Turing Institute. https://doi.org/10.5281/zenodo.16759758
Cairns, S., & Chaudhry, U. (2025). AI governance around the world: Canada. The Alan Turing Institute. https://doi.org/10.5281/zenodo.16779348
Leone de Castris, A. (2025). AI Governance around the world: European Union. The Alan Turing Institute. https://doi.org/10.5281/zenodo.16779366
Poulton, N. (2024). AI explained: Facts, fiction, & future. Nigel Poulton Ltd.
Sharadjaya, N. (2025). AI governance around the world: India. The Alan Turing Institute. https://doi.org/10.5281/zenodo.16759768
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | Gobernanza de la IA en el Mundo 2025 - septiembre 8, 2025
- NCC Radio Tecnología –Emisión 327 – 08/09/2025 al 14/09/2025 – Edu Site: La app que ayuda a estudiar a personas con discapacidad visual - septiembre 8, 2025
- NCC Radio Cultura –Emisión 327 – 08/09/2025 al 14/09/2025 – Hiroshima y Nagasaki: impacto de las bombas atómicas - septiembre 8, 2025