Por: Mtro. Rodolfo Guerrero Martínez (México).

 

La irrupción y acelerada evolución de la inteligencia artificial (IA) ha transformado radicalmente el panorama de los procesos electorales, introduciendo una serie de retos éticos complejos que giran en torno a los sesgos, la manipulación y la desinformación. Lejos de ser una mera herramienta, la IA se consolida como una tecnología fundacional que redefine las dinámicas democráticas, obligando a una profunda reflexión sobre la salvaguarda de la integridad electoral en esta nueva era.

A continuación, se presentará un análisis crítico en torno a ocho preguntas rectoras, fundamentado principalmente en el estudio titulado Panorama normativo y judicial del uso de la inteligencia artificial en los procesos electorales (RMJE, 2024).


(1) ¿Cómo ha redefinido la inteligencia artificial la naturaleza de la comunicación política electoral y cuáles son las nuevas «reglas del juego» que impone?

La IA ha inaugurado la era de las elecciones algorítmicas o smart elections, alterando fundamentalmente la forma en que los actores políticos se relacionan con los públicos y producen contenidos. Puesto que ya no se trata solo de la automatización de tareas, sino de una reconfiguración profunda de la arquitectura de decisión del votante.

Conforme a esto, la inteligencia artificial facilita la creación y distribución masiva de mensajes personalizados, e incluso de contenido sintético que difumina la línea entre la realidad y la ficción, incluyendo discursos y anuncios de campaña. Esta industrialización de la persuasión permite el análisis de datos masivos para la microsegmentación del electorado, optimizando la llegada de mensajes y alterando la comprensión tradicional del proselitismo político.

Un ejemplo concreto de esta redefinición es el uso de imágenes generadas por IA en las campañas electorales españolas, como el primer cartel electoral del partido Ciudadanos o un video del partido Comunes, aunque su uso en España es aún incipiente y exploratorio.

Cabe destacar que, los medios de comunicación también han utilizado imágenes generadas con IA con fines satíricos o ilustrativos.

Por otra parte, se localizan casos como el de Narendra Modi en India con el uso de hologramas como estrategia de campaña, estableciendo la capacidad de la IA para crear representaciones sintéticas de líderes, difuminando la presencia física y virtual. Demostrando un fenómeno que resulta en la disolución de la dimensión racional de la política en un modo de persuasión agresivo, obstinado y perturbador, planteando serias interrogantes sobre la calidad del debate democrático.

(2) Más allá de la desinformación obvia, ¿qué otros riesgos sistémicos plantean la IA para la autodeterminación del votante y la equidad electoral?

Sin duda, la IA es una herramienta especialmente peligrosa para la democracia cuando se utiliza de mala fe, dado a que facilita la creación y difusión de contenidos nocivos. La infoxicación se produce al sobrecargar la información, dificultando el acceso a hechos relevantes y la distinción entre verdad y mentira.

En ese hilo, los algoritmos de recomendación y priorización de contenidos ejercen un control significativo sobre la formación de creencias y las opciones electorales, fragmentando el espacio público y amenazando la igualdad de oportunidades. Además de presentar como la piratería de datos y el chantaje psicométrico transforman la información personal de los votantes en un poder de manipulación sin precedentes, lo que puede influir indebidamente en sus decisiones y socavar la libertad de sufragio.

Un caso que ilustra los riesgos sistémicos es el uso de presentadores creados con IA como «La Chama» y «El Pana» en Venezuela por algunos medios para reportar sobre comicios, especialmente tras la oleada de detenciones gubernamentales.

Esto sugiere cómo la IA puede ser instrumentalizada para controlar la narrativa o llenar vacíos informativos en contextos de represión, lo que plantea serios riesgos para la independencia periodística y la autonomía del votante.

Asimismo, la IA también puede impulsar campañas de contraste al difundir información negativa sobre oponentes. Además, la utilización de datos personales para la microsegmentación, aunque busca personalizar mensajes, conlleva el riesgo de que esta información se transforme en poder de manipulación, desafiando los fundamentos de la democracia.

(3) ¿De qué manera los sesgos preexistentes en los datos de entrenamiento de la IA perpetúan y exacerban la discriminación en los procesos electorales?

Los sistemas de IA, al aprender de grandes volúmenes de datos, pueden replicar y magnificar los sesgos sistemáticos presentes en dichos conjuntos de datos, perpetuando estereotipos de género, raciales y otros prejuicios sin que los usuarios o incluso los desarrolladores sean conscientes de ello.

Esto se traduce en discriminación y exclusión, afectando desproporcionadamente a comunidades marginadas. Un ejemplo crítico es el uso de la IA generativa para crear «imágenes íntimas no consensuadas de mujeres» (deepfakes), empleadas para el chantaje y la humillación pública, lo que las disuade de participar en la vida política.

Se ha demostrado que modelos de lenguaje grandes (LLM) como ChatGPT presentan sesgos políticos significativos y sistemáticos, reflejando situaciones de favorecimiento a partidos como el Demócrata en Estados Unidos, la facción de Lula en Brasil y el Partido Laborista del Reino Unido.

Ahora bien, estos hallazgos revelan que las subjetividades del grupo de etiquetado en el entrenamiento de la IA pueden no representar adecuadamente a la sociedad en general. La amplificación de sesgos étnicos, raciales o mediáticos existentes es un riesgo si la tecnología no se integra cuidadosamente.

Incluso en tareas administrativas electorales, como el mantenimiento de censos o la verificación de firmas, los algoritmos sesgados pueden generar obstáculos sistemáticos para votar, afectando la imparcialidad del proceso. Por tanto, la ética de la inteligencia artificial exige atención urgente y mecanismos claros de rendición de cuentas para mitigar estos riesgos.

(4) ¿Cuál es la crítica fundamental a la «democracia mayoritaria» en la era de la IA y cómo se relaciona con la pleonocracia?

MICHELANGELO BOVERO ha criticado la reducción de la democracia al poder de las mayorías. En el contexto de la IA, esta preocupación se agudiza con la emergencia del concepto de pleonocracia, una forma de autocracia mayoritaria donde el ejercicio del poder se concentra en la parte mayor (hoi pleones).

De tal modo que, esto se vuelve problemático cuando la IA facilita la creación de «mayorías artificiales», ya sea a través de manipulaciones en las leyes electorales para convertir una minoría de votos en una mayoría de escaños parlamentarios, o mediante la simulación de consenso y la manipulación de creencias, dando lugar a una democracia aparente.

Este fenómeno puede resultar en el predominio del poder ejecutivo sobre el legislativo, concentrando el poder y vaciando los procedimientos democráticos de su sustancia real.

En cuanto a la tiranía pleonocrática puede manifestarse a través de la inversión de la fórmula polibiana, donde las democracias reales se transforman en una mezcla de los peores rasgos de las formas corruptas de gobierno. Respecto a la IA, al permitir la industrialización de la persuasión y la microsegmentación, tiene el potencial de agudizar esta pleonocracia al crear cámaras de eco y microcomunidades que refuerzan opiniones preexistentes en lugar de fomentar un debate público pluralista.

(5) ¿Qué implicaciones éticas y de confianza surgen de la opacidad de los algoritmos de IA en la toma de decisiones electorales?

La opacidad de los algoritmos de IA, conocida como el problema de la «caja negra», es un dilema ético central que afecta la confianza pública. Por su parte, la dificultad para comprender cómo un sistema de IA llega a sus resultados impide la rendición de cuentas efectiva y la capacidad de las personas para cuestionar decisiones que les afectan.

Conforme a lo establecido, esta falta de transparencia erosiona la credibilidad en las instituciones electorales y puede llevar a la privación de derechos de los votantes, por ejemplo, si chatbots de IA difunden información incorrecta sobre lugares de votación.

Precisamente, la ausencia de un marco moderno que garantice la transparencia algorítmica es un factor clave que socava la confianza en los procesos electorales. Y para abordar esta opacidad, es fundamental promover la alfabetización mediática, informacional y algorítmica con el fin de empoderar a los votantes con una capacidad crítica para distinguir la verdad de la manipulación. Esto implica no solo entender los beneficios y riesgos de la IA, sino también cómo funcionan sus limitaciones.

Así mismo, la falta de transparencia puede llevar a que los usuarios no se den cuenta de que la inteligencia artificial está impulsando la aplicación que utilizan, y que sus datos se usen para fines diferentes a los consentidos, abriendo la puerta a la manipulación y explotación.

(6) ¿Cuáles son las estrategias normativas y no normativas que se están implementando globalmente para mitigar los riesgos de la IA en las elecciones, y cuáles son sus limitaciones?

La regulación del uso de la IA en elecciones es aún incipiente, con el progreso tecnológico superando la capacidad normativa. Las estrategias incluyen normativas sistemáticas (como la Ley de IA de la Unión Europea – UE), microsistemáticas (como la Resolución del TSE de Brasil), y puntuales (como leyes estatales en EE. UU.). Estas buscan prohibir deepfakes, exigir advertencias sobre el uso de IA y restringir bots.

Con respecto a los Estados Unidos de Norteamérica, se ha implementado una Orden Ejecutiva sobre el desarrollo y uso seguro y confiable de la IA a nivel federal, que obliga a los desarrolladores a compartir información relevante para la seguridad nacional y busca promover la innovación sin sacrificar derechos.

Por su parte, a nivel estatal, legislaturas de al menos 27 estados están tomando medidas, con leyes que, por ejemplo, en California exigen advertencias para medios engañosos que afecten a candidatos y establecen procedimientos legales para afectados. Minnesota y Texas penalizan el uso de deepfakes para influir en elecciones con intención de daño.

Sin embargo, la ley de California que permitía demandar por deepfakes fue temporalmente suspendida por un juez federal, argumentando que podría sofocar inconstitucionalmente el intercambio libre y sin trabas de ideas, lo que resalta la tensión entre regulación y libertad de expresión.

En segundo término, se debe reconocer como las empresas tecnológicas también han adoptado acuerdos voluntarios y directrices para la transparencia y prevención de abusos. Por ejemplo, OpenAI se compromete a prevenir el abuso de sus herramientas en elecciones, identificando contenido generado por IA y previniendo la creación de chatbots que imitan a candidatos.

Han establecido barreras de seguridad para rechazar solicitudes de generación de imágenes de personas reales, incluyendo políticos. Google ha restringido respuestas electorales en su chatbot Gemini, y Meta planea etiquetar imágenes creadas con IA y prohibir su uso en publicidad política.

Sin embargo, persisten limitaciones críticas: la indeterminación semántica de conceptos jurídicos dificulta la acción automatizada, la autorregulación ha demostrado ser insuficiente, y la capacidad de las plataformas para detectar y eliminar todo el contenido nocivo sigue siendo un desafío técnico considerable. Los compromisos voluntarios a menudo son genéricos y carecen de detalles sobre su aplicación o plazos.

(7) ¿De qué forma la legislación y la jurisprudencia actuales abordan el uso de los deepfakes y otros contenidos generados o manipulados por IA, y dónde residen las principales controversias?

Las legislaciones, como la brasileña y la europea (Ley de IA), están comenzando a prohibir explícitamente los deepfakes, especialmente aquellos que buscan impactar el equilibrio electoral o la integridad del proceso. Se exige la advertencia explícita sobre el uso de IA en contenidos sintéticos para evitar el engaño del público.

En principio, destacamos la Resolución del TSE de Brasil (23.732/2024) que es un modelo microsistemático pionero. Esta resolución prohíbe los deepfakes independientemente de su finalidad (positiva o negativa) y la difusión de desinformación potenciada por IA.

También prohíbe chatbots y simulaciones que intenten hacerse pasar por candidatos reales. Exige que cualquier contenido sintético lleve una «advertencia explícita, destacada y accesible» sobre su origen, con reglas específicas para audio, imágenes estáticas, video y materiales impresos.

Una disposición clave es la responsabilidad solidaria de las plataformas si no retiran inmediatamente contenidos como desinformación, discursos de odio o contenido antidemocrático. La norma también busca la aplicación de medidas a contenidos sustancialmente similares para evitar eludir la detección.

Como segundo aporte significativo se pone en relieve a los Estados Unidos, especialmente aquellas leyes estatales que prohíben el uso de deepfakes para influir en una elección dentro de plazos específicos (60 o 90 días previos), requiriendo intención de dañar o influir. No obstante, la suspensión de la ley de California por posible violación a la Primera Enmienda subraya la tensión entre la libertad de expresión y la protección de la información veraz.

Ahora bien, en tercer término, se encuentra la Ley de IA de la UE que exige el etiquetado de contenidos y marcas de agua para deepfakes y la notificación de interacción con chatbots.

El Reglamento sobre transparencia y segmentación de la publicidad política restringe el uso de técnicas de microsegmentación con datos personales sensibles y prohíbe la contratación de publicidad por parte de organizaciones de terceros países antes de las elecciones.

Respecto a la Ley de Servicios Digitales (DSA), esta refuerza la transparencia de las plataformas y los algoritmos, e impone a las grandes plataformas la obligación de mitigar riesgos sistémicos relacionados con procesos electorales.

Las principales controversias residen en la aplicación de estas normas, la dificultad para determinar la verosimilitud y potencial de daño de un contenido manipulado, y la ambigüedad en la redacción de algunas prohibiciones, como la brasileña sobre la clonación de figuras humanas vivas o fallecidas.

Además, la eficacia de las etiquetas para el contenido generado por IA es cuestionada, ya que no siempre indican si el contenido es dañino o falso, y los usuarios pueden no adaptar su comportamiento.

(8) Ante la acelerada evolución de la IA, ¿qué modelo integral de respuesta se propone para que las instituciones electorales salvaguarden la democracia de manera proactiva y sostenible?

La salvaguarda de la democracia exige un modelo integral de respuesta que trascienda lo meramente jurídico e incluya componentes tecnológicos, comunicativos, culturales, políticos y educativos. De esta forma, siendo fundamental fortalecer las capacidades de los organismos electorales, dotándolos de recursos y formación en IA y ciberseguridad, ya que no es posible hacer frente a la IA sin IA.

En ese hilo, se propone una regulación que priorice la integridad electoral sobre la IA per se, garantizando la eliminación de la manipulación y el engaño, pero respetando la libertad de expresión, la privacidad y la libertad de voto.

Así también, reiteramos lo señalo como parte de las respuestas a las interrogantes precedentes (particularmente a la quinta), donde la promoción de la alfabetización mediática, informacional y algorítmica empodere a los votantes con una capacidad crítica para distinguir la verdad de la manipulación.

Adicionalmente reconociendo el deber de los organismos electorales en establecer políticas internas para el uso responsable de la IA, incluyendo transparencia, explicabilidad y mecanismos de auditoría, asegurando la supervisión humana en todos los ciclos de la IA.

Reconociendo desde luego, que la implementación efectiva de la IA debe ir precedida de estudios internos que evalúen los riesgos y beneficios, manteniendo la proporcionalidad.

Al mismo tiempo, es crucial establecer alianzas estratégicas entre instituciones electorales, entidades tecnológicas y académicas para desarrollar respuestas adaptativas y asegurar que la IA sea un medio para fines democráticos, no un fin en sí misma.

Se recomienda la creación de comités consultivos con expertos en inteligencia artificial, ciencia de datos, comunicación política y derecho digital para mantener la regulación actualizada. Añadiendo la necesidad de aprender de experiencias pioneras en otros países, como la regulación de Brasil, puede evitar errores y fortalecer las instituciones. Destacando con ello, lo esencial que los legisladores definan claramente el propósito de la regulación, las conductas a cubrir y la responsabilidad de los actores.

Finalmente, las instituciones electorales deben identificar y fomentar los usos beneficiosos de la IA para mejorar la seguridad, eficiencia y accesibilidad de los procesos electorales.

 

Fuentes de consulta

BBC News Mundo. (2017). Los políticos que usan hologramas para estar en 7 lugares al mismo tiempo. Disponible en: https://www.bbc.com/mundo/noticias-39657691

BBC News Mundo. (2024). La Chama y El Pana, los presentadores creados con inteligencia artificial que usan medios en Venezuela para evitar la oleada de arrestos del gobierno de Maduro. Disponible en: https://www.bbc.com/mundo/articles/czrg4v6xn1jo

Consejo del Observatorio de Redes Sociales. (2024). Panorama Normativo y Judicial del uso de la Inteligencia Artificial en los Procesos Electorales (Coordinación académica: F. F. Alvim & V. de A. Monteiro). Secretaría Técnica de la RMJE.

Elizalde Saldaña, D. (2023). El Futuro Visual de las PYMES: imágenes Generadas por IA con Midjourney. Instituto Federal de Telecomunicaciones. Disponible en: https://www.ift.org.mx/transformacion-digital/blog/el-futuro-visual-de-las-pymes-imagenes-generadas-por-ia-con-midjourney-0

Hammar, C., & Müller, J. (2025). El dilema ético de la IA electoral #3. Proyecto IA para Actores Electorales. Disponible en: https://www.idea.int/es/news/el-dilema-etico-de-la-ia-electoral-3

Instituto de Investigaciones Jurídicas de la UNAM. (2019). Poder, democracia y derechos: Una discusión con Michelangelo Bovero. Universidad Nacional Autónoma de México, Instituto de Investigaciones Jurídicas.

Ministrstvo za digitalno preobrazbo. (2024). GLOBAL FORUM ON THE ETHICS OF AI (2024) – DAY 2 – HEROS HALL [Video]. YouTube. Disponible en: https://www.youtube.com/watch?v=BX5FdDA-wx8&t=2700s

Panditharatne, M., & Giansiracusa, N. (2023). Cómo la inteligencia artificial pone en riesgo las elecciones y las medidas que se requieren para protegernos. Brennan Center for Justice. Disponible en: https://www.brennancenter.org/es/our-work/analysis-opinion/inteligencia-artificial-pone-en-riesgo-elecciones-medidas-proteger-democracia

Pennacchio, K. (2024). Frente a la persecución, periodistas en Venezuela se protegen con avatares de inteligencia artificial. Latam Journalism Review. Disponible en: https://latamjournalismreview.org/es/articles/periodistas-venezuela-ia-avatares/

Requejo, R., & Carro, M. V. (2024). LA LEY A.I. (Análisis Inteligente). LA LEY, LXXXVIII(61), 2.

Rojas-Calderón, A. (2024). Los usos de imágenes generadas con IA en la política española: entre la creatividad y la manipulación. Revista de Comunicación Política, 6(1), e240606. https://doi.org/10.29105/rcp.v6i1.60

Rubio Núñez, R., Alvim, F., & Monteiro, G. (2024). Inteligencia artificial y campañas electorales algorítmicas. Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=9871379

SWI swissinfo.ch. (2024). La IA es motor de desinformación en elecciones de EEUU: llamadas falsas, deepfakes y memes. Disponible en: https://www.swissinfo.ch/spa/la-ia-es-motor-de-desinformaci%C3%B3n-en-elecciones-de-eeuu%3A-llamadas-falsas%2C-deepfakes-y-memes/87688100

Tribunal Electoral del Poder Judicial de la Federación. (2025). SX-JDC-184/2025. Disponible en: https://www.te.gob.mx/media/SentenciasN/pdf/xalapa/SX-JDC-0184-2025.pdf

Valdez Zepeda, A., Aréchiga, D., & Daza Marco, T. (2024). Inteligencia artificial y su uso en las campañas electorales en sistemas democráticos. Revista Venezolana de Gerencia, 29(105), 63-76. https://doi.org/10.52080/rvgluz.29.105.5

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.