Las redes sociales se han visto inundadas con videos que simulan ser clips noticiosos, pero son falsos. Aquí les contamos cómo evitar caer en engaños.

En TikTok, un reportero se encuentra frente a una cabina telefónica roja, con banderas británicas de fondo y, micrófono en mano, le pregunta a una transeúnte por quién va a votar en las próximas elecciones. «Por los reformistas», dice la mujer. «Solo quiero volver a sentirme británico», agrega. En los comentarios, un usuario se pregunta cuánto le habrán pagado por decir eso.

Pero la verdad es que la escena nunca ocurrió. La entrevista es falsa. El periodista no existe y la entrevistada tampoco. Todo fue creado con inteligencia artificial (IA) . Si miramos con calma, hay una pista sutil: una tenue marca de agua en la esquina con la palabra Veo, la firma de la nueva y poderosa herramienta de generación de videos de Google DeepMind.

No es algo aislado. Desde TikTok a Telegram, los noticieros sintéticos (creados con IA y que imitan la apariencia de noticias reales) están inundando las redes. Adoptan el lenguaje visual del periodismo, pero son totalmente inventados, a menudo diseñado para provocar indignación o manipular la opinión.

La evolución de los deepfakes

El concepto de presentadores generados con IA no es algo nuevo. En 2018, la agencia estatal china de noticias Xinhua dio a conocer un presentador robótico creado con inteligencia artificial. En ese momento, la propuesta era más una curiosidad que una amenaza.

Pero desde entonces la tecnología ha evolucionado enormemente. Herramientas como Veo permiten que prácticamente cualquier persona pueda crear vídeos con apariencia profesional por solo unos pocos cientos de euros al mes. «Las barreras de entrada prácticamente han desaparecido», dice a DW Hany Farid, experto en temas digitales y académico de la Universidad de California. «No necesitas un estudio. Ni siquiera necesitas hechos», apunta.

Algunos usuarios recurren a los noticieros de IA para hacer parodias o vídeos cómicos. Un video viral en TikTok muestra a un periodista parado frente a un bache tan grande que las motocicletas desaparecen en él. Pero también hay videos sintéticos donde la línea entre la sátira y la realidad es más difusa.

En un ejemplo, una reportera describe un «convoy militar sin precedentes» que avanza por el centro de Londres. De pie frente a un tanque, no hace referencia a ningún hecho específico, momento o contexto. DW verifica ha visto en reiteradas ocasiones cómo este tipo de videos aparecen con más fuerza en tiempos de crisis, como disturbios o grandes eventos noticiosos.

Una máquina barata de hacer dinero

La mayoría de estos vídeos están diseñados para maximizar las interacciones. Abordan temas altamente polarizantes (inmigración, guerra en Gaza o Ucrania, Donald Trump) para provocar reacciones emocionales y fomentar las interacciones.

Las plataformas suelen recompensar este contenido. Meta, por ejemplo, ajustó recientemente su algoritmo para mostrar más publicaciones de cuentas que los usuarios no siguen, lo que facilita que los videos sintéticos lleguen a audiencias más amplias y desprevenidas. La monetización incentiva aún más a los creadores: cuantas más visitas tenga un video, más dinero generarán.

Esto ha dado paso a generadores de basura IA, usuarios que crean contenido sintético de baja calidad solo para atraer usuarios y visitas. Durante un reciente accidente aéreo, docenas de videos en TikTok presentaron avatares vestidos como reporteros difundiendo cifras falsas de víctimas y relatos de testigos inventados.

El momento ideal para este tipo de contenido es cuando hay noticias de última hora: la gente busca información y este contenido capta la atención del público. «Es la tormenta perfecta: puedo generar contenido, distribuirlo y allá esperan audiencias dispuestas a creerlo», dice Farid.

Cómo detectar un engaño

Entonces, ¿cómo saber qué es real y qué no? Para empezar, hay que buscar las marcas de agua. Herramientas como Veo, Synthesia y otras a menudo ponen marcas a sus videos, aunque a veces son casi imperceptibles o pueden ser recortadas en la edición. Pero incluso ocurre que clips claramente marcados suelen estar inundados de comentarios que preguntan «¿esto es real?».

Otra señal típica de las IA son los movimientos torpes de las manos o los fondos inconsistentes. También es buena idea mirar los ojos y la boca de los periodistas, porque los avatares sintéticos a menudo parpadean de forma poco natural o tienen dificultades para sincronizar los labios de forma realista. Los dientes pueden parecer demasiado lisos o con un brillo anormal. Incluso pueden cambiar de forma a mitad de una frase. Los gestos y movimientos faciales tienden a ser demasiado uniformes.

Los textos también pueden servir como señal. Los caracteres que aparecen en pantalla a menudo tienen frases sin sentido o errores tipográficos. Pero el mejor consejo es el que da Farid: «Si no quiere que le mientan, acuda a noticieros conocidos y fiables».