Por: Mtro. Rodolfo Guerrero Martínez (México).
El ecosistema mediático actual atraviesa una transformación profunda: la capacidad de narrar y procesar la realidad ya no recae exclusivamente en el juicio humano, donde la incorporación de modelos de lenguaje de gran escala (LLM, por sus siglas en inglés) ha modificado los límites del newsmaking tradicional y obliga a las redacciones a superar la simple automatización de tareas rutinarias para adentrarse en la generación sintética de contenidos de mayor complejidad editorial.
Este fenómeno no es homogéneo, dado a que, en América Latina, por ejemplo, los medios han transitado con rapidez de una fase de exploración tecnológica a una de experimentación activa con herramientas generativas (Zuazo, 2023). La velocidad de ese tránsito hace más urgente, no menos, la reflexión jurídica.
Desde el derecho, el problema central no radica en la ausencia de normas, sino en la inadecuación de los marcos regulatorios existentes frente a una tecnología que replica, al menos en apariencia, facultades cognitivas de análisis y redacción. Esta inadecuación se vuelve tangible en la proliferación de chatbots y asistentes virtuales que, si bien mejoran la eficiencia operativa, difuminan la cadena de responsabilidad editorial y dificultan rastrear quién decidió publicar qué y con qué respaldo de verificación.
Por tanto, este artículo examinará los principales desafíos legales que plantea la inteligencia artificial generativa en el periodismo, con especial atención a la autoría, la responsabilidad editorial, la transparencia y la protección de fuentes.
1.-El cambio de paradigma en las políticas editoriales
La adopción de herramientas de inteligencia artificial obliga a los medios a replantear su misión institucional, lo cual no opera de manera neutral para simplemente acelerar procesos, sino que actúa como un agente que modifica la relación del medio con su audiencia, altera los flujos de verificación y redistribuye las cargas de responsabilidad editorial. Los medios enfrentan, en consecuencia, una tensión concreta entre la presión por innovar y la obligación de sostener su credibilidad como actores de la esfera pública.
En ese contexto, Cerezo (2024) sostiene que la irrupción de la IA generativa constituye un cambio de paradigma estructural, tanto para los creadores individuales de contenido como para las organizaciones informativas en su conjunto. El señalamiento no es retórico: implica que las soluciones parciales —adoptar una herramienta aquí, establecer un criterio allá— resultan insuficientes sin una política institucional coherente que oriente el uso de estos sistemas.
La ausencia de esa política genera riesgos reputacionales concretos. Normalizar el uso de algoritmos sin propósito editorial definido equivale a ceder parte del control periodístico sin asumir explícitamente esa decisión. La tendencia reciente de varias grandes cabeceras a conformar comités de gobernanza tecnológica —encargados de evaluar la pertinencia ética de cada nueva aplicación antes de su implementación— refleja que estos riesgos ya se perciben como administrables, pero únicamente con estructuras formales de supervisión.
2.-La explotación de archivos periodísticos para el entrenamiento de modelos
El entrenamiento de los modelos de IA generativa constituye uno de los frentes de mayor conflicto legal. Estos sistemas se nutren de enormes corpus de datos obtenidos mediante técnicas de scraping masivo, y las organizaciones periodísticas advierten que sus contenidos —protegidos por propiedad intelectual— son utilizados para parametrizar algoritmos que, posteriormente, compiten con ellos en el mercado de la información.
Según la News Media Alliance (2023), los contenidos producidos por medios de comunicación están sistemáticamente sobrerrepresentados en los conjuntos de datos de entrenamiento, precisamente por su alta fiabilidad y su estructura gramatical consistente. La calidad del periodismo profesional se convierte, así, en un insumo privilegiado para la industria tecnológica, sin compensación ni consentimiento de los titulares de los derechos.
Esta dinámica implica una transferencia de valor que amenaza la viabilidad económica de la prensa profesional. El caso más ilustrativo es el litigio iniciado por The New York Times contra OpenAI y Microsoft, en el que se alega que el uso de millones de artículos del diario constituye una infracción de derechos de autor cuyo efecto práctico es eludir los mecanismos de acceso de pago. Más allá de ese caso específico, el conflicto pone de manifiesto una tensión estructural que los marcos actuales de propiedad intelectual no resuelven con claridad suficiente.
3.-Límites de la protección jurídica en obras sintéticas
La validez jurídica de un contenido periodístico depende, en primera instancia, de que pueda identificarse su autoría. El derecho de autor reserva esa categoría a la creación intelectual de una persona física, es decir, las obras producidas de manera autónoma por sistemas automatizados carecen de la originalidad que exige la ley y, en consecuencia, tienden a quedar fuera del ámbito de protección en la mayoría de las jurisdicciones, ingresando por defecto al dominio público.
La U.S. Copyright Office (2025) ha ratificado esta distinción: existe una diferencia jurídica fundamental entre el uso de la IA como asistente creativo —donde el control editorial recae en una persona— y su rol como generadora autónoma del contenido. La línea entre ambos escenarios no siempre es nítida en la práctica, pero sus consecuencias patrimoniales para los medios son directas e inmediatas.
Si una redacción no puede acreditar una intervención humana sustantiva en la edición de una nota, pierde la posibilidad legal de reclamar exclusividad sobre ese contenido. El caso de Sports Illustrated ilustra este riesgo con claridad: la publicación sufrió un daño reputacional grave cuando se reveló que utilizaba perfiles de autores ficticios generados artificialmente, lo que no solo cuestionó su ética editorial, sino que privó a sus piezas de cualquier respaldo de protección autoral.
4.-La atribución de responsabilidad legal por difamación
Los modelos de lenguaje generativo presentan una limitación técnica conocida como alucinación algorítmica: la producción de información falsa que aparenta ser factual. En el ámbito del derecho de prensa, este fenómeno adquiere dimensiones legales cuando el sistema inventa declaraciones, atribuye delitos a personas reales o distorsiona contextos judiciales. En esos supuestos se activan responsabilidades civiles por difamación y daño moral.
The Future of Free Speech (2025) advierte que la opacidad de los procesos de aprendizaje automático y la falta de transparencia en el funcionamiento interno de los modelos agravan los riesgos para la libertad de expresión y la veracidad informativa. El problema no es solo técnico: la cadena causal entre el error del modelo y el daño al afectado resulta difícil de documentar ante un tribunal con los estándares de prueba habituales.
Ante esta dificultad, la posición jurídica más sólida es tratar al medio de comunicación como editor único y responsable. La máquina carece de personalidad jurídica y no puede ser demandada. El periodista y la organización que publican el contenido asumen la carga de la verificación, con independencia del origen automatizado del texto.
El caso Walters v. OpenAI —en el que la plataforma generó afirmaciones falsas sobre un particular, incluyendo la imputación de malversación de fondos— ha obligado a los tribunales a comenzar a definir estándares de negligencia aplicables a este tipo de errores algorítmicos.
5.-Estándares de transparencia y niveles de intervención
La gobernanza editorial en el entorno algorítmico requiere protocolos que garanticen al lector el derecho a conocer el origen de la información que consume. La transparencia no es solo una exigencia ética: funciona también como un mecanismo de defensa legal, ya que permite delimitar con precisión en qué etapas del proceso periodístico intervino la IA y en cuáles lo hizo un profesional humano.
En esa línea, la Asociación Vasca de Periodistas (2024) propone establecer una escala de autoría que diferencie, al menos, tres niveles: el uso asistido para búsqueda y clasificación de datos, la generación mixta con supervisión humana obligatoria, y la creación autónoma con validación posterior.
Cada nivel implica una distribución distinta de la responsabilidad editorial, lo que obliga a los medios a documentar sus decisiones con mayor precisión que en el modelo de producción tradicional.
El etiquetado obligatorio del contenido generado por IA opera, en ese esquema, como un contrato tácito de confianza con la audiencia. No se trata únicamente de anticipar una regulación que en muchas jurisdicciones aún no existe: se trata de gestionar los efectos reputacionales de no hacerlo antes de que sean irreversibles.
La adopción de notas editoriales detalladas que especifican qué párrafos fueron generados algorítmicamente y qué profesional humano verificó su exactitud es una práctica que ya implementan algunos medios de referencia y que establece un estándar de buenas prácticas razonable y replicable.
6.-Protocolos para el resguardo de fuentes informativas
La introducción de datos confidenciales en plataformas externas de IA representa un riesgo legal de primer orden. Desde la óptica jurídica, ingresar información sensible en un modelo comercial equivale funcionalmente a una publicación externa: puede vulnerar el secreto profesional del periodista y comprometer la identidad de fuentes protegidas o la integridad de documentos filtrados que aún no han sido publicados.
La arquitectura técnica de muchos modelos disponibles comercialmente implica que los textos ingresados pueden ser retenidos para el reentrenamiento del sistema. En respuesta a ese peligro, France Médias Monde (2025) establece en su guía de buenas prácticas que cualquier uso profesional de herramientas de IA debe realizarse en plataformas seguras y dedicadas, preferentemente de gestión interna, que garanticen la confidencialidad de los datos bajo los estándares de protección vigentes.
Por consiguiente, la soberanía tecnológica del medio —esto es, el control efectivo sobre los sistemas que procesan su información— es la única salvaguardia estructural frente a la filtración accidental o el acceso no autorizado a material periodístico sensible. Las directrices de la BBC, que prohíben expresamente cargar material sujeto a reserva en herramientas de nube pública sin auditoría técnica previa, ofrecen un modelo de referencia aplicable, con las adaptaciones necesarias, a redacciones de menor escala.
Conclusión general
La integración de la IA generativa en las redacciones no supone una transferencia de la autoridad periodística a la máquina. Presume, con mayor precisión, una redistribución de la responsabilidad editorial que exige un control humano más riguroso, más documentado y explícito que el que prevalecía antes de la irrupción de estos sistemas.
El desafío jurídico más urgente no reside en la capacidad técnica del algoritmo para redactar texto, sino en dos problemas estructurales vinculados entre sí: la opacidad del entrenamiento —que incorpora contenidos periodísticos sin autorización ni compensación— y la dilución de la autoría, que debilita la protección legal sobre los contenidos producidos.
Frente a eso, una gobernanza institucional sólida no es una opción adicional, sino el mecanismo que permite al medio defender su credibilidad ante la audiencia y su patrimonio intelectual ante terceros.
Finalmente, el futuro del periodismo dependerá de su capacidad para demostrar, con hechos concretos y procesos verificables, que el procesamiento de datos puede transitar por redes neuronales sin que eso implique ceder la responsabilidad ética ni la obligación de rendir cuentas ante la sociedad.
La tecnología debe operar como un instrumento que potencie el juicio crítico profesional, no como un sustituto que vacíe de contenido la función social de la prensa en las democracias contemporáneas.
Referencias bibliográficas
Asociación Vasca de Periodistas – Colegio Vasco de Periodistas. (2024). Decálogo para el uso ético de la IA en los medios de comunicación.
Cerezo, P. (2024). Políticas de uso de los medios ante la IA. IPG MediaBrands.
France Médias Monde. (2025). Guía de buenas prácticas para el uso de la inteligencia artificial en las actividades editoriales de FMM.
News Media Alliance. (2023). News Media Alliance study finds pervasive unauthorized use of publisher content to power generative AI technologies.
The Future of Free Speech. (2025). AI-Report-2025: Full report on AI and free expression.
U.S. Copyright Office. (2025). Copyright and artificial intelligence, part 2: Copyrightability.
Zuazo, N. (2023). Periodismo e inteligencia artificial en América Latina. UNESCO.
***
Rodolfo Guerrero es abogado por la Benemérita Universidad de Guadalajara y maestro en derecho con orientación en materia Constitucional y administrativo por la misma casa de estudios. Es Socio Fundador y Representante Legal de la Sociedad Civil Coffee Law “Dr. Jorge Fernández Ruiz”. Socio fundador de la Academia Mexicana de Derecho “Juan Velásquez” A.C. Titular de la Comisión de Legaltech del Ilustre y Nacional Colegio de Abogados de México A.C. Capítulo Occidente. Vicepresidente de la Academia Mexicana
- Plumas NCC | Desafíos legales de la IA generativa en el periodismo - mayo 11, 2026
- NCC Radio Ciencia – Emisión 362 – 11/05/2026 al 17/05/2026 – El ruido podría ser una fuente de energía eléctrica - mayo 11, 2026
- NCC Radio Cultura –Emisión 362 – 11/05/2026 al 17/05/2026 – Cuerdas del Alma: la agrupación musical que reivindica la cultura cubana - mayo 11, 2026




