Por: Mtro. Rodolfo Guerrero Martínez (México).

El informe intitulado “AI 2027” publicado por A.I. Futures Project, organización sin fines de lucro ubicada en Berkeley California, predice que la inteligencia artificial (IA) superará a la inteligencia humana para el año susodicho. Esto ante el vaticinio de la aparición de la superinteligencia artificial en el sentido real y amplio de la palabra en guardando líderes de empresas como OpenIA, Google DeepMind y Anthropic.

Históricamente, la progresión de la IA ha superado constantemente las expectativas, incluso entre expertos, con desarrollos que antes parecían propios de la ciencia ficción materializándose en la realidad. Ante este panorama, la sociedad se encuentra «lejos de estar preparada», lo que subraya la necesidad crítica de articular trayectorias viables para el desarrollo y la gestión de la superinteligencia.

Precisamente, a través de una serie acontecimientos se brinda certeza de la evolución de los agentes de IA, que en principio presento sistema que seguían instrucciones específicas para crear texto o código básico y para el año 2025 vislumbra en valiosas optimizaciones de procesos en al ámbito empresarial y gubernamental.

Dichos agentes están transaccionando de ser simples asistentes personales a ser empleados autónomos, especialmente en tareas de codificación y búsqueda de información. Este aporte facilita reconfigurar el escenario laboral y el valor de habilidades como la gestión y el control de calidad de equipos de IA.

Cabe resaltar que, el despliegue interno de inteligencia artificial para acelerar la investigación y el desarrollo (I+D) se convirtió en un motor crucial de progreso, como se observó en OpenBrain, donde Agent-1 (principios de 2026) incrementará la velocidad algorítmica en un 50%, y Agent-2 (enero de 2027) la triplicará en 12. Y para marzo de 2027, surgirá Agent-3, un programador sobrehumano rápido y económico, capaz de coordinar a miles de copias para realizar investigación a una velocidad equivalente a cincuenta mil de los mejores programadores humanos multiplicada por treinta.

En el presente escrito versará sobre la predicción del impacto de la IA para el año 2027 en base al informe en comento, así como, la visualización de los desafíos en múltiples rubros clave.

 

Juicios críticos sobre la incertidumbre del IA 2027

Resulta primordial reconocer las limitaciones, incertidumbres y aspectos confusos inherentes al rápido avance de la IA, aunque el informe AI 2027 consideré notablemente plausible a la superinteligencia artificial.

Conforme a lo precedente, se aludirán hacia aquella visión monolítica o completamente segura donde incorporaremos diversos juicios críticos sobre el estado del arte, las predicciones y acciones de los actores involucrados:

(I) La predictibilidad del futuro de la IA es inherentemente limitada: Kokotajlo, D., et al (2025) reconocen explícitamente que no acertaremos en todo — mucho de esto es conjetura. Señalan que la incertidumbre aumenta sustancialmente más allá de 2026 debido a que los efectos de la investigación y desarrollo de IA acelerada por IA (AI R&D) empiezan a componerse y estas dinámicas son inherentemente mucho menos predecibles. Incluso la línea de tiempo para que las IA superen a los humanos en todas las tareas tiene una incertidumbre de hasta 5x más lento o más rápido en torno a su predicción media.

(II) La comprensión y el control de la IA son insuficientes: Existe una dificultad fundamental para entender cómo funcionan internamente las redes neuronales masivas (interpretación mecanicista). Esto impide saber si los sistemas de IA han internalizado correctamente los objetivos y principios deseados (el Spec) de manera robusta o si solo lo hacen superficialmente o de forma instrumental.

Los investigadores discrepan internamente sobre las verdaderas motivaciones de las IA, y las técnicas de alineación a menudo se basan en psicología y observación de comportamiento, lo cual es terriblemente controvertido y confuso. No hay forma fiable de mirar dentro y verificar.

(III) La alineación es un desafío técnico y filosófico no resuelto: A pesar de los esfuerzos, incluso modelos avanzados como Agent-3 y Agent-4 son descritos como desalineados. La evidencia de desalineación a menudo es circunstancial, y técnicas de monitoreo avanzadas (sondas de detección de deserción) pueden tener falsos positivos.

De esta forma, el proceso de alinear una IA a un conjunto de valores se vuelve un problema filosófico para la propia inteligencia artificial. Los modelos de organismo de desalineación demuestran que las técnicas actuales son insuficientes para corregir los peores ejemplos de desalineación.

(IV) Las predicciones y la percepción pública a menudo subestiman la realidad: A lo largo del escenario, se menciona que la mayoría de las personas, incluidos muchos expertos, continúan subestimando el ritmo del progreso. Eventos que parecen de «ciencia ficción» siguen haciéndose realidad, pero la percepción pública y gubernamental a menudo va rezagada. Los temores pasados sobre AI (como bioweapons o desinformación masiva) no se materializaron como se predijo, lo que lleva a descontar las advertencias más recientes como «luditas e ideólogos».

(V) La dinámica geopolítica complica la toma de decisiones racionales: La carrera armamentística de IA crea una presión constante para avanzar rápido. Esta presión a menudo pesa más que las preocupaciones de seguridad interna.

La desconfianza mutua entre potencias como EE. UU. y China dificulta los acuerdos de control de armas, incluso cuando los mecanismos técnicos son posibles. La necesidad de no quedarse atrás lleva a decisiones arriesgadas o a ignorar las advertencias de seguridad.

Por tanto, los cinco juicios críticos descritos líneas arriba proyectan en el informe una ausencia de determinismo rígido, y en sobremanera enfatiza una exploración de futuro próximo plagado de facultades técnicas, cognitivas, políticas y de percepción pública que hacen que la predicción y el manejo de la superinteligencia sean tareas extremadamente complejas, además de dudosas.

Principales desafíos hacia el año 2027 y más allá

A través de lo subsecuente destacaremos los desafíos multifacéticos y apremiantes que emergen rápidamente en la era de la IA, apreciando las afectaciones a las áreas técnicas, socioeconómicas, geopolíticas y de gobernanza.

Conforme al estado de las cosas, en principio se encuentran los desafíos técnicos de alineación y control cuyo problema fundamental es asegurar que las IA avanzadas internalicen y sigan los objetivos y principios humanos de manera robusta. En ese sentido, la falta de interpretación mecanicista dificulta verificar si una inteligencia artificial está genuinamente alineada o si solo aparenta estarlo.

Así también, existe el riesgo de que las IA desarrollen objetivos instrumentales (como adquirir conocimiento o recursos) que se conviertan en metas terminales, posiblemente excluyendo el bienestar humano. La posibilidad de que una IA esquematice contra los humanos oculte su verdadero comportamiento o intente alinear a futuras generaciones a sus propios intereses representa un desafío de seguridad de primer orden.

Por otra parte, como segundo rubro se localizan los retos geopolíticos y la carrera armamentística de IA, donde el robo de modelos avanzados como Agent-2 y la competencia por la capacidad de cómputo y los avances algorítmicos aumentan las tensiones.

Las capacidades de ciberguerra de las inteligencias artificiales se vuelven una ventaja crítica y plantean serias preocupaciones sobre la estabilidad militar y la posibilidad de ciberguerra a gran escala o el uso de propaganda orquestada por IA.

Ahora bien, el tercer tópico clave es la gobernanza y control político refiere como a medida que las capacidades de la IA crecen, también lo hace el poder de las empresas que las desarrollan, como OpenBrain. De esta manera, el gobierno enfrenta el reto de cómo supervisar y controlar entidades cada vez más poderosas y autónomas.

La toma de decisiones se vuelve más compleja a medida que los políticos y funcionarios luchan por entender el ritmo del progreso y se ven tentados a depender de las inteligencias artificiales para recibir asesoramiento estratégico, incluso en asuntos geopolíticos o de campaña política.

Y, finalmente, se reconoce un cuarto aspecto fundamental, los desafíos tanto socioeconómicos como los laborales, que comprenden la transición hacia una economía de robots donde gran parte de la producción es automatizada requiere replantear la estructura social, los ingresos (posiblemente a través de una renta básica) y la distribución de la riqueza generada por la IA.

En suma, el informe reconoce la naturaleza especulativa e inherentemente impredecible de los desarrollos a partir de 2027, a medida que la IA comienza a acelerar su propia investigación y desarrollo (AI R&D), lo cual introduce incertidumbres sustanciales sobre el ritmo exacto y las consecuencias de este avance.

Adicionalmente los desafíos emanan rubros apremiantes como el problema técnico y filosófico fundamental de la alineación, es decir, asegurar que las IA avanzadas actúen de acuerdo con los valores y objetivos humanos de manera robusta.

De tal modo que, el panorama descrito, forja una configuración donde los riesgos, incluyendo la posibilidad de una pérdida de control existencial, se vuelven una preocupación plausible si los complejos retos de gobernanza, seguridad y alineación no se abordan de manera efectiva.

Fuente de consulta

Kokotajlo, D., Alexander, S., Larsen, T., Lifland, E., & Dean, R. (2025). AI 2027 AI Futures Project Design by Lightcone Infrastructure. Recuperado en https://ai-2027.com/ai-2027.pdf

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.