Desde deepfakes destinados a influir en las elecciones hasta los chatbots que difunden noticias falsas, la desinformación aparece como uno de los grandes peligros del creciente uso de la inteligencia artificial (IA).

El rápido despliegue de esta tecnología, objeto de una cumbre mundial en París, ya ha alimentado en los últimos años el auge de la desinformación, ofreciéndole nuevas herramientas formidables.

En Eslovaquia, en 2023, una grabación causó gran revuelo: se escuchaba al líder de un partido proeuropeo admitir que las elecciones legislativas iban a ser manipuladas.

Era un deepfake, un contenido trucado gracias a la IA que pudo influir en los votantes.

En todo el mundo, los políticos sufren regularmente este tipo de procedimientos, con un gran potencial de viralidad en las redes sociales.

Este es el caso del expresidente estadounidense Joe Biden, cuya voz fue falsificada para aconsejar a los votantes que no votaran.

O una supuesta imagen del primer ministro israelí Benjamin Netanyahu hospitalizado.

 

Deepfakes pornográficos –

 

Mujeres políticas en Estados Unidos, Italia, Reino Unido o Pakistán también han sido víctimas de imágenes pornográficas generadas por IA, una tendencia que genera preocupación entre los investigadores.

Estos deepfakes de contenido sexual también suelen atacar a celebridades como la cantante estadounidense Taylor Swift. Todas las mujeres pueden ser agredidas, advierte el American Sunlight Project, un grupo de investigación sobre la desinformación.

La IA también es utilizada para grandes operaciones de interferencia digital.

Las campañas prorrusas conocidas como «doppelgänger» o «matriochka» son algunos de los ejemplos más destacados: sus autores utilizaron ampliamente perfiles fraudulentos, es decir, bots (contracción de ‘robots’), para publicar contenidos generados por IA, con el objetivo de socavar el apoyo occidental a Ucrania.

«Lo que es nuevo es la escala y la facilidad con la que una persona con muy pocos recursos financieros y tiempo puede difundir contenidos falsos que, por otro lado, parecen cada vez más creíbles y son cada vez más difíciles de detectar», detalla Chine Labbé, editora en jefe de la organización Newsguard, que analiza la fiabilidad de los sitios y contenidos en línea.

La IA constituye un «apoyo sin precedentes para la generación y la gestión de cuentas falsas en las plataformas en línea», todo «a gran escala», subraya también Viginum, la organización francesa de lucha contra las interferencias digitales extranjeras, en un informe publicado con motivo de la cumbre organizada en París.

 

– «Contaminación de internet» –

 

Ningún campo escapa a estos contenidos falsos, como por ejemplo videoclips musicales fraudulentos, al igual que las falsas fotos de eventos históricos fabricadas en unos pocos clics.

En Facebook se multiplican las imágenes conmovedoras generadas por IA para obtener recursos o adhesiones.

El propósito no es necesariamente difundir información falsa, sino captar la atención con fines comerciales, o incluso preparar estafas una vez que se identifiquen a los usuarios crédulos.

A finales de diciembre, mientras la historia de un hombre que prendió fuego a una mujer en el metro de Nueva York ocupaba los titulares en Estados Unidos, una supuesta foto de la víctima circuló ampliamente.

Había sido generada por IA, y el drama fue instrumentalizado para dirigir a los usuarios a sitios de criptomonedas.

«Más allá del riesgo de desinformación, existe el de la contaminación de internet: nunca se sabe si uno se enfrenta a un contenido que ha sido verificado, editado por un ser humano, o si fue generado por una IA sin que nadie se preocupe por su veracidad», advierte Chine Labbé.

Cada evento noticioso provoca un flujo de imágenes creadas en línea, como los grandes incendios en Los Ángeles a principios de 2025, durante los cuales fotos falsas del letrero de Hollywood en llamas o una estatua del Oscar entre las cenizas dieron la vuelta al mundo.

Los chatbots de moda, como el estadounidense ChatGPT, también pueden contribuir a difundir noticias falsas, señala Chine Labbé de Newsguard: «Tienen la tendencia de citar primero fuentes generadas por IA, por lo que es un círculo vicioso».

La llegada del chino DeepSeek, que difunde las posiciones oficiales chinas en parte de sus respuestas, solo refuerza la necesidad de imponer marcos a estas herramientas, argumenta la experta.

Hay que «enseñar a distinguir las fuentes confiables de las de propaganda», añade.