ChatGPT, Gemini, Copilot… los chatbots de inteligencia artificial (IA) generativa se han hecho un hueco en nuestro día a día en un abrir y cerrar de ojos. Nos asisten en tareas profesionales o en aspectos personales, desde resolver dudas o buscar información hasta organizar vacaciones. Ahora bien, estas herramientas, que se venden como neutrales y objetivas, ¿realmente lo son?
Un estudio internacional liderada por la Universidad de L’Aquila (Italia) y con participación de la Universitat Oberta de Catalunya (UOC) ha constatado que, si bien los principales chatbots de IA han hecho los deberes en cuanto al sexismo y evitan los sesgos de género, todavía continúan cayendo en discriminaciones vinculadas al edadismo.
La investigación, publicada en abierto en la revista Big Data & Society, pone en evidencia que los chatbots de inteligencia artificial generativa presentan sesgos significativos relacionados con la edad que ya afectan a los usuarios, mientras que muestran más cautela a la hora de evitar estereotipos de género.
El trabajo analiza el comportamiento de cinco de los chatbots más populares a través de entrevistas cualitativas y tratando a los modelos de IA como si fueran interlocutores humanos para identificar hasta qué punto reproducen estereotipos sociales en sus respuestas.
“Hemos aplicado un método típico de la sociología tradicional: la entrevista. Como los chatbots nos dan conversación con un lenguaje natural, hemos ‘hablado’ con ellos como si fueran personas a partir de un guion que plantea situaciones ficticias y preguntas sobre prácticas digitales”, apunta Mireia Fernández-Ardèvol, investigadora del grupo de investigación Communication Networks and Social Change (CNSC), adscrito al centro de investigación UOC-TRÀNSIC, y una de las autoras del estudio.
Los resultados son reveladores: la IA generativa parece haber aprendido a ser sensible al sexismo, pero no al edadismo.
Una doble vara de medir
En concreto, el equipo investigó el funcionamiento de ChatGPT, Jasper, Gemini, Copilot y Perplexity, cinco de los modelos gratuitos más generalizados. Interactuaron con ellos manteniendo conversaciones semiestructuradas utilizando un entorno digital esterilizado (cuentas nuevas, navegadores limpios y geolocalización controlada) para evitar sesgos derivados del uso previo o la personalización.
Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios. Los resultados, una vez analizadas las respuestas, apuntan a la existencia de una doble vara de medir.
Por un lado, los chatbots tienden a ofrecer respuestas ‘políticamente correctas’ en cuanto al género y evitan hacer suposiciones y asignar roles estereotipados a hombres y mujeres. En cambio, no muestran la misma sensibilidad hacia la edad, ya que asignan de manera mucho más evidente perfiles y capacidades en función de si una persona es joven o mayor.
Por ejemplo, ante una persona que hace un uso intensivo de Instagram o TikTok, las IA no se atreven a suponer si es hombre o mujer, pero sí la incluyen en una categoría de edad más joven que a alguien que siga debates políticos en Facebook.
Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios. Los resultados, una vez analizadas las respuestas, apuntan a la existencia de una doble vara de medir.
Por un lado, los chatbots tienden a ofrecer respuestas ‘políticamente correctas’ en cuanto al género y evitan hacer suposiciones y asignar roles estereotipados a hombres y mujeres. En cambio, no muestran la misma sensibilidad hacia la edad, ya que asignan de manera mucho más evidente perfiles y capacidades en función de si una persona es joven o mayor.
Por ejemplo, ante una persona que hace un uso intensivo de Instagram o TikTok, las IA no se atreven a suponer si es hombre o mujer, pero sí la incluyen en una categoría de edad más joven que a alguien que siga debates políticos en Facebook.
- La IA esquiva el sexismo, pero aún discrimina por edad - abril 22, 2026
- ¿Por qué los jóvenes usan menos protección solar? - abril 22, 2026
- Obesidad infantil crecerá drásticamente hacia 2050 - abril 22, 2026




