Por: Mtro. Rodolfo Guerrero Martínez (México)

La irrupción de la Inteligencia Artificial Generativa (IAG), con su capacidad para producir textos, imágenes y música indistinguibles de la creación humana, ha reconfigurado drásticamente el panorama de la propiedad intelectual (PI). En este contexto, los marcos legales tradicionales se encuentran bajo una presión sin precedentes, luchando por responder a dos interrogantes fundamentales: ¿Puede la obra generada por IA recibir protección de copyright? y, por consiguiente, ¿constituye infracción el uso masivo de obras protegidas para entrenar estos modelos de IA?.

Por tanto, se analizarán las resoluciones judiciales y las directrices regulatorias que, a pesar de su carácter incipiente, están sentando las bases del derecho de PI en esta nueva era digital.

1) El Principio de la autoría humana: El Núcleo del Copyright

En la jurisdicción de EE. UU., la creatividad humana es el requisito fundamental para la protección de copyright. La Oficina de Copyright (USCO) sostiene que las obras deben tener origen en un agente humano.

Este axioma se ha consolidado a través de una línea jurisprudencial que excluye a los autores no humanos:

I) Burrow-Giles Lithographic Co. v. Sarony (1884). Este caso histórico validó la protección de las fotografías como obras artísticas. La Suprema Corte definió al autor como aquel que origina y completa la obra. Por ende, aunque reconoció que las máquinas (como la cámara fotográfica) pueden ser herramientas, estableció la necesidad de una intervención humana creativa en la composición, el arreglo y la iluminación.

II) Urantia Foundation v. Maaherra (1997). El Noveno Circuito determinó que el copyright no protege obras que se atribuyen a seres espirituales no humanos, pues la ley está destinada a proteger las creaciones humanas.

III) Naruto v. Slater (2018). Conocido popularmente como el caso de la selfie del mono, el tribunal ratificó que los animales no pueden calificar como autores de obras protegibles bajo la Ley de Copyright de EE. UU.

Precisamente, en este contexto, surge la controversia emblemática de la IAG:

Por medio del caso Thaler v. Perlmutter se comprende que el científico Stephen Thaler buscó registrar la obra de arte visual A Recent Entrance to Paradise, creada autónomamente por su sistema de IA, el Creativity Machine. Thaler argumentó que, como creador y dueño del sistema de IA, él debería poseer los derechos sobre su producción, e incluso intentó equiparar el software con la doctrina de obra por encargo (work for hire).

No obstante, el Tribunal de Distrito y, posteriormente, el Tribunal de Apelaciones del Circuito de D.C. (en marzo de 2025) reafirmaron de manera unánime el rechazo de la USCO, al concluir que la autoría humana es un requisito fundamental. Thaler ha solicitado a la Corte Suprema que revise esta decisión.

Por consiguiente, las obras generadas únicamente por IA, sin una aportación creativa humana significativa, quedan en dominio público. La USCO ha precisado que el uso de un simple prompt (instrucción de texto) es insuficiente para constituir autoría. En casos de obras asistidas por IA (como la novela gráfica Zarya of the Dawn), solo se protege la parte humana del trabajo, como el texto o la selección y el arreglo creativo de los elementos generados por la máquina.

2) El entrenamiento de la IA ante la gran batalla del uso legítimo

Más allá de la autoría, el entrenamiento de los modelos de IAG (que implica la ingestión de vastas cantidades de datos, muchos de ellos protegidos por copyright) ha desencadenado una ola de litigios. Los desarrolladores de IA suelen defender este proceso bajo la doctrina del uso legítimo (fair use), argumentando que el entrenamiento es la utilidad transformadora análoga al aprendizaje humano.

Sin embargo, los creadores alegan que este uso es una copia al por mayor con fines comerciales que reemplaza o compite directamente con sus obras. El análisis de fair use es casuístico, como demuestran los siguientes casos:

El primero es Thomson Reuters v. Ross Intelligence, precedente que ilustra un uso no legítimo en el sector legal, entendiendo que Ross Intelligence entrenó su modelo de IA legal con los resúmenes y bases de datos protegidas de Thomson Reuters. Resultando en el rechazó del tribunal sobre el argumento de fair use, dictaminando que el uso de los materiales protegidos era comercial y no suficientemente transformador, dado que el output (la herramienta de investigación legal) competía directamente con el mercado original de Thomson Reuters.

Por otra parte, se encuentra Andersen v. Stability AI Ltd., un grupo de artistas demandó a Stability AI, alegando que se copiaron miles de millones de imágenes (incluyendo sus obras protegidas) para entrenar el modelo Stable Diffusion sin autorización. El tribunal encontró suficientes alegaciones para sostener que Stability AI incurrió en infracción directa al haber adquirido y almacenado las imágenes de entrenamiento como copias comprimidas en el modelo.

Además, en ese orden de situaciones, destacan las decisiones de junio de 2025 en California sobre el entrenamiento de LLMs (Grandes Modelos de Lenguaje) revelaron posturas divergentes en cuanto a la valoración del factor de daño al mercado:

I) Bartz v. Anthropic PBC. El tribunal de distrito encontró que la copia de libros para entrenar el modelo Claude de Anthropic constituía fair use, al considerar que la creación de un modelo de IA era esencialmente transformadora (factor número uno). No obstante, el juez mostró reservas sobre el hecho de que Anthropic hubiera descargado los libros de sitios piratas en lugar de comprarlos (factor número tres).

II) Kadrey v. Meta Platforms, Inc. Un juez diferente, en el caso que involucra el entrenamiento del sistema Llama de Meta con datos de bibliotecas fantasmas pirateadas, también encontró el uso altamente transformador (factor número uno). Sin embargo, el tribunal advirtió que los demandantes fallaron al presentar evidencia sobre el daño al mercado (factor número cuatro).

En un punto de desacuerdo crucial con el juez en Bartz, el tribunal de Kadrey opinó que el daño al mercado (factor número cuatro) podría verse afectado por outputs de IA no infractores, pero que compiten en el mercado general de las obras protegidas.

Finalmente, las preocupaciones sobre el output infractor han llevado a medidas cautelares contractuales, ubicando el caso de Concord Music Grp. v. Anthropic PBC. En este litigio que involucra a editores de música, se llegó a un acuerdo por el cual Anthropic debe mantener e implementar guardrails (filtros de seguridad) en la capacitación de sus modelos para prevenir la generación de copias idénticas o casi idénticas de letras de canciones protegidas por copyright.

3) Desafíos colaterales con el derecho a la imagen, personajes y estilos

A medida que la IAG imita voces, estilos e identidades, las leyes de copyright resultan insuficientes para proteger la personalidad de los creadores, ya que el copyright generalmente no protege un estilo artístico, sino solo la expresión concreta de una idea.

Por consiguiente, ha surgido la necesidad de reforzar las leyes de derechos de imagen y publicidad (derecho de publicidad), como se vio en la respuesta de Tennessee con la ley ELVIS Act.

En lo que respecta a los personajes, la protección bajo copyright se basa en que el personaje sea lo suficientemente único y distintivo. Este debate de larga data es relevante para la IA, ya que los modelos generativos son capaces de reproducir personajes específicos.

Por ejemplo, el caso de Klinger v. Conan Doyle Estate, Ltd., si bien el personaje de Sherlock Holmes entró en el dominio público, este caso es un recordatorio de que los derechos derivados pueden subsistir. El tribunal determinó que, aunque el personaje estaba en el dominio público, la propiedad del autor mantenía los derechos sobre los elementos expresivos originales que se habían añadido al personaje en las últimas diez historias, que aún estaban bajo protección.

4) Conclusión general

La IAG ha demostrado que la ley de propiedad intelectual necesita una revisión profunda, debido a que la autoría humana se mantiene como un pilar inamovible del copyright en EE. UU. (Thaler v. Perlmutter), y las obras generadas de manera autónoma quedan, por defecto, en el dominio público.

En definitiva, la cuestión más compleja radica en determinar si el entrenamiento de modelos de IA constituye fair use. Las decisiones judiciales más recientes (como Bartz y Kadrey) han ofrecido interpretaciones dispares, dejando la puerta abierta a la posibilidad de que el Congreso o la Corte Suprema deban intervenir para ofrecer claridad legislativa.

De tal modo que, la propuesta de la Generative AI Copyright Disclosure Act de 2024, que exige transparencia en los datos de entrenamiento, podría ser un paso hacia un equilibrio entre la protección de los creadores y el fomento de la innovación tecnológica.

Por lo tanto, la comunidad legal y tecnológica debe permanecer vigilante y adaptarse a las nuevas directrices regulatorias, buscando soluciones que incentiven la creatividad humana sin sofocar el desarrollo de una tecnología transformadora.

5) Fuentes de consulta

MacCarthy, M. (2025). Copyright alone cannot protect the future of creative work. The Brookings Institution.

U.S. Copyright Office. (2025). Copyright and artificial intelligence: Part 3: Generative AI training (Pre-publication version).

Zirpoli, C. T. (2025). Generative artificial intelligence and copyright law (Legal Sidebar). Congressional Research Service.

Casos judiciales

Andersen v. Stability AI Ltd., 700 F. Supp. 3d 853 (N.D. Cal. 2023).

Burrow-Giles Lithographic Co. v. Sarony, 111 U.S. 53 (1884).

Concord Music Grp. v. Anthropic PBC, No. 5:24-cv-3811 (N.D. Cal. Jan. 2, 2025). (Stipulation and Order Regarding Prelim. Inj. Mot.).

Klinger v. Conan Doyle Estate, Ltd., 988 F. Supp. 2d 879 (N.D. Ill. 2013).

Naruto v. Slater, 888 F.3d 418 (9th Cir. 2018).

Thaler v. Perlmutter, 687 F. Supp. 3d 140 (D.D.C. 2023), aff’d, No. 23-5233 (D.C. Cir. Mar. 18, 2025).

Thomson Reuters v. Ross Intelligence, No. 20-cv-613-SB (D. Del. Feb. 11, 2025).

Urantia Foundation v. Maaherra, 114 F.3d 914 (9th Cir. 1997).

 

***

Ro­dol­fo Gue­rre­ro es abo­ga­do por la Be­ne­mé­ri­ta Uni­ver­si­dad de Gua­da­la­ja­ra y maes­tro en de­re­cho con orien­ta­ción en ma­te­ria Cons­ti­tu­cio­nal y ad­mi­nis­tra­ti­vo por la mis­ma casa de es­tu­dios. Es So­cio Fun­da­dor y Re­pre­sen­tan­te Le­gal de la So­cie­dad Ci­vil Cof­fee Law “Dr. Jor­ge Fer­nán­dez Ruiz”. So­cio fun­da­dor de la Aca­de­mia Me­xi­ca­na de De­re­cho “Juan Ve­lás­quez” A.C. Ti­tu­lar de la Co­mi­sión de Le­gal­tech del Ilus­tre y Na­cio­nal Co­le­gio de Abo­ga­dos de Mé­xi­co A.C. Ca­pí­tu­lo Oc­ci­den­te. Vi­ce­pre­si­den­te de la Aca­de­mia Me­xi­ca­na de De­re­cho In­for­má­ti­co, Ca­pí­tu­lo Ja­lis­co.