Por: Mtro. Rodolfo Guerrero Martínez (México).
En la era actual, la Inteligencia Artificial (IA) ha capturado la imaginación colectiva, presentándose a menudo como una fuerza disruptiva con el potencial de transformar radicalmente todos los aspectos de la sociedad.
Sin embargo, esta omnipresencia mediática y el rápido avance de tecnologías como ChatGPT, que se ha convertido en sinónimo de IA en el discurso popular, han generado una mezcla de entusiasmo desmedido y aprehensión.
En esta ocasión, inspirado en el trabajo de ARVIND NARAYANAN y SAYASH KAPOOR en AI Snake Oil: What AI can do, What it Can’t, and How to Tell the Difference, se buscará -de forma general más no limitativo- desmitificar el hype que rodea a la IA y analizar cómo sus implementaciones actuales exacerban las desigualdades sociales existentes a través de serie de preguntas rectoras.
Además, se argumentará que una comprensión crítica de las capacidades y limitaciones reales de la IA es fundamental para fomentar un desarrollo y una regulación que promuevan el interés público.
(1) ¿Qué es el aceite de serpiente de la IA y cómo se diferencia de una aplicación de IA funcional?
El aceite de serpiente de la IA se refiere a las afirmaciones exageradas, impulsadas por el hype, sobre las capacidades de la inteligencia artificial, que a menudo prometen soluciones rápidas o milagrosas sin evidencia sólida.
Un ejemplo es la creencia de que la IA puede predecir con precisión resultados sociales humanos complejos o que puede reemplazar completamente a profesionales cualificados en tareas que requieren juicio crítico y contexto social.
Se diferencia de una aplicación de IA funcional en que esta última demuestra un progreso genuino y capacidades verificables, aunque no necesariamente exentas de limitaciones o riesgos. NARAYANAN y KAPOOR distinguen tres tipos principales de IA: la IA predictiva (como la que evalúa riesgos crediticios o de reincidencia), la IA generativa (como ChatGPT o DALL-E) y la IA de moderación de contenido.
Las aplicaciones funcionales de la IA operan bien en dominios específicos, como el plegamiento de proteínas, el autocompletado de texto o la asistencia en la programación, donde las modalidades epistémicas (estadísticas, ciencias computacionales) están bien alineadas con la naturaleza del problema.
El aceite de serpiente surge cuando se aplican estas tecnologías fuera de sus límites de funcionamiento efectivo, o cuando sus capacidades son presentadas de forma engañosa.
(2) ¿Cuáles son las principales fuentes del hype en torno a la IA y por qué persisten estas narrativas?
El hype en torno a la IA emana de múltiples fuentes interconectadas. En un principio, la comunidad científica contribuye cuando los investigadores exageran la importancia de sus hallazgos para asegurar financiación o reconocimiento, lo que alimenta una crisis de reproducibilidad. Frente a la falta de un enfoque en la comprensión científica rigurosa del porqué la IA funciona, en lugar de solo en el qué hace, también perpetúa el misterio y el hype.
Segundo, las empresas de tecnología tienen fuertes incentivos para promocionar sus productos de IA con afirmaciones grandilocuentes, ya que esto impulsa las ventas y el valor de mercado. A menudo, operan con poca transparencia y buscan la autorregulación, lo que les permite controlar la narrativa y minimizar el escrutinio público.
Tercero, los medios de comunicación amplifican el hype al priorizar titulares sensacionalistas y noticias que se basan en comunicados de prensa de empresas o universidades sin una verificación exhaustiva. Utilizan metáforas engañosas (como la magia de la IA) e imágenes de robots futuristas que distorsionan la comprensión pública de la tecnología.
Por último, las figuras públicas y expertos, a menudo con intereses económicos o ideológicos, difunden predicciones especulativas sobre superinteligencia o riesgos existenciales, lo que, paradójicamente, magnifica la percepción del poder de la IA (el criti-hype). Estos factores se refuerzan mutuamente, creando un ciclo de desinformación que es difícil de romper.
(3) ¿Cómo contribuye la IA a la exacerbación de las desigualdades laborales y qué formas de trabajo se ven más afectadas?
Para comprender el impacto de la inteligencia artificial en la ampliación de las desigualdades laborales, es importante considerar dos aspectos principales. Por una parte, la automatización impulsada por la IA tiende a sustituir actividades repetitivas y estructuradas, lo que repercute especialmente en puestos con baja o media calificación dentro sectores como la manufactura, los servicios administrativos y las oficinas.
Esta tendencia provoca la pérdida de empleos y la reducción de salarios, incrementando la distancia entre la productividad generada y la remuneración recibida.
Por otra parte, la implementación de IA en el ámbito laboral favorece la concentración del poder en pocas empresas y empleadores, lo que debilita la capacidad de negociación de los trabajadores y limita su autonomía.
Un caso paradigmático es el llamado trabajo fantasma (ghost work): consiste en la tercerización masiva de tareas de etiquetado de datos a personas con bajos sueldos en países en vías de desarrollo. Aunque resultan esenciales para el desarrollo y perfeccionamiento de los sistemas de IA, estos trabajadores suelen enfrentar condiciones laborales precarias, ausencia de derechos y falta de reconocimiento por su labor.
Asimismo, el uso de IA en la gestión de recursos humanos afecta decisiones clave como la contratación y la evaluación del desempeño, lo que puede dar lugar a sesgos y reducir la transparencia hacia los empleados. A modo de ejemplo, las huelgas recientes de actores y escritores en Hollywood frente al empleo de IA en la producción de contenido ponen de manifiesto la preocupación por la apropiación de la creatividad humana y el debilitamiento de los derechos laborales en profesiones creativas.
(4) ¿De qué manera la IA puede introducir o amplificar sesgos y discriminación en sistemas sociales, y cuáles son las consecuencias?
Es importante entender que la inteligencia artificial puede ser fuente o amplificadora de sesgos y discriminación a través de diversos mecanismos, fundamentalmente relacionados con la naturaleza de los datos empleados en su entrenamiento y la omisión de factores sociales relevantes.
Para empezar, los modelos de IA extraen regularidades estadísticas del conjunto de datos con los que se alimentan, los cuales suelen contener prejuicios y desigualdades estructurales existentes en la sociedad. Un ejemplo ilustrativo es su aplicación en el ámbito judicial: algoritmos como el Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) han evidenciado parcialidad racial, asignando incorrectamente un riesgo mayor de reincidencia a personas negras.
Por otro lado, en el proceso de selección de personal, las herramientas basadas en IA que evalúan grabaciones de entrevistas pueden fundamentar sus decisiones en aspectos superficiales —como gestos o entonación— que no guardan relación directa con el desempeño laboral, resultando en prácticas discriminatorias hacia ciertos colectivos.
De igual forma, los sistemas de reconocimiento facial presentan una precisión considerablemente menor al identificar a individuos de comunidades racializadas, lo que ha derivado en arrestos injustificados y abusos en tareas de vigilancia. En el sector sanitario, los algoritmos predictivos empleados para gestionar pacientes de Medicare o anticipar cuadros de sepsis pueden reproducir sesgos que conducen a negación de servicios médicos o diagnósticos erróneos, perjudicando principalmente a grupos minoritarios.
Adicionalmente, en el ámbito educativo, los detectores de textos generados por IA han presentado un patrón de trato injusto hacia personas cuya lengua materna no es el inglés, llegando a acusaciones equivocadas de plagio. En consecuencia, estos sesgos no solo limitan el acceso a oportunidades laborales y servicios básicos, sino que también menoscaban derechos civiles y profundizan la desconfianza en las instituciones.
(5) ¿Por qué la IA predictiva es inherentemente limitada para predecir resultados humanos y sociales complejos?
La IA predictiva es inherentemente limitada para predecir resultados humanos y sociales complejos debido a la naturaleza misma de los sistemas sociales y el comportamiento individual.
Esto inicia reconociendo el futuro del comportamiento humano que está influenciado por una enorme cantidad de variables interconectadas y por eventos aleatorios o de la suerte que son imposibles de modelar completamente. A diferencia de los fenómenos físicos (como las órbitas planetarias), donde existen teorías bien establecidas y alta predictibilidad, no tenemos teorías equivalentes para la predictibilidad de los problemas sociales.
En segundo término, los sistemas sociales no son estáticos; están en constante evolución, y las predicciones de la IA pueden quedar obsoletas rápidamente o incluso influir en el sistema, alterando el resultado original. Los cambios en el contexto local, el cambio social y los intentos de los usuarios de evadir la moderación de contenido son ejemplos que hacen que las partes difíciles seguirán siendo difíciles.
Además, cuando la IA predictiva se utiliza para tomar decisiones sobre individuos, como en la justicia penal o la asignación de beneficios, no solo se trata de precisión, sino de cuestiones filosóficas sobre la justificación del ejercicio de poder sobre una persona basándose en una predicción falible. Incluso si la precisión fuera mucho mejor, el acto de usar predicciones para determinar el destino de alguien plantea consideraciones éticas fundamentales. La complejidad de la vida humana y la interacción social a menudo desafía la lógica determinista de los modelos computacionales.
(6) ¿Cuáles son los desafíos éticos y de ciberseguridad asociados con la implementación de IA generativa en los negocios?
Por una parte, la adopción acelerada de la IA generativa en el sector empresarial introduce retos éticos y de ciberseguridad de gran relevancia. Desde una perspectiva ética, resulta esencial señalar el fenómeno de la alucinación en los modelos generativos; es decir, la producción de datos que aparentan ser verídicos, pero que en realidad contienen errores, lo cual podría desencadenar decisiones organizacionales inadecuadas o contribuir a la circulación de información falsa. Así, la fiabilidad de la información proporcionada por estos sistemas se ve comprometida.
Por otro lado, se detectan conflictos relacionados con la propiedad intelectual. Los modelos de IA generativa suelen entrenarse utilizando grandes volúmenes de contenido disponible en línea, sin reconocer ni compensar a los autores originales, ya sean artistas, escritores o fotógrafos. Este aprovechamiento no autorizado del trabajo creativo amenaza la subsistencia de diversas profesiones y sectores culturales.
Aunado a lo anterior, surge la inquietud sobre el control que tienen los usuarios respecto al uso de sus datos personales. Persiste la incertidumbre acerca de si es posible rechazar la utilización de información privada para el entrenamiento de algoritmos o cómo se resguarda dicha información en caso de incidentes de seguridad.
En cuanto a ciberseguridad, la IA generativa potencia riesgos preexistentes. Por ejemplo, ciberdelincuentes pueden emplear estos modelos para perfeccionar ataques de phishing, desarrollar software malicioso o crear fraudes digitales más convincentes.
Además, existe la amenaza del envenenamiento de datos o modelos, donde agentes maliciosos introducen información manipulada en los datos de entrenamiento, provocando que el sistema arroje resultados erróneos o promueva posturas radicales.
La facilidad para vulnerar las salvaguardas de los modelos de lenguaje (LLMs) y generar contenido nocivo acrecienta el riesgo, mientras que una confianza excesiva en estos sistemas por parte de los empleados—sin tener plena conciencia de sus limitaciones—puede exponer a las organizaciones a incidentes de seguridad y ciberataques.
(7) ¿Cómo influye la escalera de generalidad en la percepción del progreso de la IA y en las predicciones sobre la IAG?
La escalera de generalidad es un concepto que describe el aumento gradual en la flexibilidad y capacidad de la IA para realizar diversas tareas, lo que ha moldeado tanto la percepción del progreso como las predicciones sobre la Inteligencia Artificial General (IAG).
Cada escalón representa un avance que hace que la IA sea más adaptable y requiera menos esfuerzo para aprender nuevas tareas. Los ordenadores de propósito general (como los que usó Alan Turing) fueron un primer peldaño, seguidos por algoritmos de aprendizaje que podían clasificar imágenes (perceptrones) y luego redes neuronales profundas. El escalón más reciente es la capacidad de especificar tareas simplemente con palabras, sin programación, utilizando herramientas como ChatGPT, haciendo la IA accesible a todos.
Esta progresión incremental ha llevado históricamente a sobrestimar la proximidad de la IAG, definida como la IA capaz de realizar la mayoría de las tareas económicamente relevantes tan eficazmente como cualquier humano. Investigadores de IA han subestimado espectacularmente la dificultad de alcanzar hitos de IA durante más de 70 años.
Sin embargo, la escalera de generalidad sugiere que, en lugar de un umbral mágico repentino, el progreso de la IA es una evolución continua que ocurrirá a lo largo de décadas, si es que la IAG es posible.
Ahora bien, la búsqueda de esta generalidad está impulsada por la eficiencia y el ahorro de costos; construir una IA para cada tarea específica sería mucho más caro que utilizar un modelo general adaptable. Esto subraya que la IAG es más una ideología de eficiencia que un sueño de superinteligencia.
(8) ¿Qué papel juega la regulación en la mitigación de los riesgos de la IA y cómo se puede hacer más efectiva?
En la mitigación de los riesgos asociados con la inteligencia artificial, la regulación desempeña una función esencial al crear marcos normativos que buscan equilibrar el avance tecnológico con la salvaguarda del interés público. Primeramente, es responsabilidad de las autoridades normativas definir pautas claras para el desarrollo y comercialización de productos de IA, estableciendo criterios de transparencia y mecanismos de rendición de cuentas, sobre todo en ámbitos de alto impacto social, como la selección de personal o la educación.
Ejemplo de ello es la Ley de Inteligencia Artificial (AIA) de la Unión Europea, que categoriza las aplicaciones de IA según su nivel de riesgo, así como las acciones emprendidas por la Comisión Federal de Comercio (FTC) en Estados Unidos contra empresas que realizan declaraciones engañosas sobre sus sistemas de IA.
En segundo término, para que la regulación sea realmente eficaz, no basta con reaccionar ante los problemas; es indispensable aplicar de manera rigurosa la legislación vigente, adaptando normas como las de protección al consumidor y de libertad de expresión a las nuevas realidades tecnológicas.
En tercer lugar, es crucial que los organismos reguladores se mantengan independientes y eviten la captura regulatoria, es decir, la influencia de grandes corporaciones de IA que buscan imponer reglas a su favor, restringiendo la competencia mediante, por ejemplo, esquemas de licencias exclusivas.
Por último, resulta fundamental fomentar la alfabetización en IA tanto entre los responsables de diseñar políticas como en la ciudadanía en general. Este conocimiento permitirá comprender mejor los retos y matices de la tecnología, favoreciendo la toma de decisiones informadas.
Así también, es imprescindible impulsar reformas institucionales que ataquen las raíces de los problemas sociales que la IA tiende a agravar, en vez de limitarse a tratar de corregir únicamente los sistemas de inteligencia artificial.
(9) ¿Cuál es la diferencia entre el mundo Kai y el mundo Maya en el contexto de un futuro saturado de IA?
NARAYANAN y KAPOOR esbozan dos futuros hipotéticos, el mundo de Kai y el mundo de Maya, para ilustrar las posibles trayectorias de una sociedad saturada de IA, destacando que el resultado depende de las decisiones colectivas.
El mundo de Kai es un escenario distópico donde la IA está en gran medida no regulada, incuestionable, ubicua y opaca. En este escenario, la IA se integra en aplicaciones adictivas de redes sociales y juegos, rastreando a los niños desde el nacimiento para predecir sus futuros con miles de millones de puntos de datos. Se les dice que la IA automatizará todos los trabajos, lo que frena sus ambiciones personales.
De tal modo que la investigación académica depende de la financiación de la industria, limitando la transparencia. En ese hilo, los desarrolladores no tienen incentivos para mejorar la precisión del contenido generado por IA, lo que lleva a la desinformación, y muchas funciones están censuradas para adaptarse a mercados como el chino. Es un futuro pierde-pierde donde la IA exacerba los problemas sociales existentes.
El mundo de Maya, en contraste, representa un futuro regulado, transparente, beneficioso y empoderador, donde la IA es común y normalizada en aplicaciones y juguetes que son divertidos y útiles para el aprendizaje y el desarrollo de los niños. Los sistemas de recomendación en redes sociales permiten a los usuarios curar sus contenidos según sus preferencias (sin política, más arte, aprendizaje de idiomas), promoviendo el aprendizaje y los puntos de vista diversos.
Las empresas de IA están obligadas a compartir su riqueza debido a las regulaciones antimonopolio, la protección laboral y la reforma de los derechos de autor. Existe un apoyo gubernamental significativo para la educación continua y las redes de seguridad social. La IA crea nuevos empleos y aumenta la apreciación por la expresión artística humana. Es un futuro donde la IA se moldea para promover el interés público y el florecimiento humano.
(10) ¿Cómo puede la alfabetización en IA empoderar a los individuos para navegar mejor el panorama tecnológico actual y resistir el hype?
Conforme a un primer orden de ideas, adquirir alfabetización en IA resulta esencial para que las personas puedan desenvolverse con autonomía y sentido crítico en el mundo digital actual, marcado por el auge de tecnologías inteligentes.
A través de esta formación, los individuos obtienen las herramientas conceptuales y terminológicas que les permiten identificar los diferentes tipos de inteligencia artificial —como la predictiva, la generativa o la enfocada en la moderación de contenidos— y comprender los principios básicos de su funcionamiento. De esta manera, es posible separar las promesas realistas de las exageraciones o engaños, lo cual facilita desarrollar un juicio crítico ante discursos grandilocuentes provenientes de corporaciones o figuras mediáticas.
Asimismo, la comprensión profunda de los límites propios de la inteligencia artificial —por ejemplo, su tendencia a cometer errores, generar información falsa (alucinaciones) o reproducir sesgos— resulta indispensable para que los usuarios no depositen una confianza ciega en las máquinas ni deleguen decisiones importantes sin cuestionarlas.
Esto se traduce en una capacidad mayor para evaluar cuándo y cómo conviene aprovechar la IA, potenciando la productividad y la creatividad, y, a su vez, reconociendo cuándo es preferible no utilizarla, sobre todo en contextos delicados o de alto impacto.
Por último, la alfabetización en IA brinda a la ciudadanía los recursos necesarios para participar activamente en la promoción de un desarrollo tecnológico ético y responsable. De este modo, las personas pueden intervenir en los debates públicos, exigir regulaciones orientadas a la protección de derechos y el interés colectivo, y dejar de ser simples consumidores pasivos para convertirse en agentes que inciden en el rumbo de la innovación tecnológica.
Conclusión general
El futuro de la IA no es una trayectoria predeterminada, sino una elección colectiva. Para evitar un futuro dominado por una IA no regulada, opaca y adictiva, como el mundo de Kai descrito por NARAYANAN y KAPOOR, debemos aspirar a un mundo de Maya, donde la IA sea una herramienta divertida, útil, regulada y diseñada para empoderar a las personas y promover el bien social.
Esto requiere un compromiso crítico con la tecnología, una inversión pública significativa y un cambio de actitud hacia una mayor responsabilidad y participación ciudadana, donde la desmitificación del hype y la confrontación de las desigualdades son pasos esenciales en esta travesía.
Fuentes de consulta
Buntrock, R. E. (2025). Hype and hallucination: Narayanan and Kapoor identify the limits of AI. Choice.
Huang, Y. (2025). The labor market impact of artificial intelligence. Local vs aggregate effect. International Monetary Fund.
Leverhulme Centre for the Future of Intelligence. (2024). A ‘torn underpants’ theory for AI? Notes on Arvind Narayanan and Sayash Kapoor’s AI Snake Oil. University of Cambridge.
MIT Stone Center on Inequality & Shaping Work. (2025). AI snake oil: What artificial intelligence can do, what it can’t, and how to tell the difference [Video]. YouTube.
Narayanan, A., & Kapoor, S. (2024). AI snake oil: What artificial intelligence can do, what it can’t, and how to tell the difference. Princeton University Press.
Social Science Bites. (2024). Daron Acemoglu on artificial intelligence.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | La Inteligencia Artificial, del hipe al aceite de serpiente - septiembre 16, 2025
- NCC Radio Cultura – Emisión 328 – 15/09/2025 al 21/09/2025 – Gladys Palmera, la colección de música latina más importante del mundo - septiembre 15, 2025
- NCC Radio Tecnología – Emisión 328 – 15/09/2025 al 21/09/2025 – Jóvenes cubanos exploran IA y robótica educativa - septiembre 15, 2025