La popularización del generador de imágenes de ChatGPT, capaz de recrear estilos artísticos reconocibles como el de Studio Ghibli, ha provocado un nuevo estallido de debates en los ámbitos jurídico y ético. Más allá del fenómeno viral, las implicaciones de esta tecnología tocan cuestiones de fondo sobre derechos de autor, competencia desleal, banalización del arte y extractivismo cultural.
Algunas plataformas de IA están utilizando obras protegidas para entrenar modelos de IA sin remunerar a los creadores, mientras que otros negocios intentan establecer mecanismos de compensación. El debate gira en torno a si estamos ante un caso de apropiación indebida o una nueva forma de generar riqueza compartida. Las regulaciones emergentes en la UE y en EE. UU. podrían marcar el futuro de este sector. Expertos de la Universitat Oberta de Catalunya (UOC) analizan, desde la legalidad, las infracciones derivadas del uso masivo de estilos visuales reconocibles, y, desde el ámbito artístico, advierten de la banalización cultural y la pérdida de identidad artística ante la estandarización estética impulsada por la IA.
Copiar sin copiar: el reto legal de proteger un estilo
El estilo visual de una obra no está protegido de forma directa por los derechos de autor, ni en España ni en la Unión Europea. Sin embargo, cuando un conjunto de rasgos estéticos es tan identificable que actúa como una «firma visual», puede gozar de protecciones indirectas. «Aunque no esté registrado como marca, la ley protege esa identidad para evitar que otras empresas se aprovechen de su fama y confundan al público», explica Begoña González Otero, profesora colaboradora de los Estudios de Derecho y Ciencia Política de la UOC.
Desde el punto de vista jurídico, el uso masivo del estilo de Studio Ghibli por parte de plataformas de IA abre la puerta a posibles reclamaciones por competencia desleal y apropiación de identidad artística. «Copiar masivamente un estilo tan asociado a su autor o estudio puede ser ilegal, aunque no se copie una obra concreta», puntualiza González Otero. Según el artículo 6 de la Ley de Competencia Desleal (LCD), inducir confusión o explotar la reputación ajena constituye una práctica ilícita. Puede, también, existir un riesgo de dilución de marca no registrada si se demuestra que el estilo es distintivo y conocido. La situación cambia dependiendo de quién genere las imágenes. «Cuando hay plataformas o empresas que utilizan estilos reconocibles para entrenar o producir contenidos que compiten en el mercado, existe riesgo claro de aprovechamiento indebido«, afirma la experta. Sin embargo, si son usuarios particulares que crean imágenes de uso privado, «cualquier acción directa contra ellos sería desproporcionada», según la Directiva 2004/48/CE.
Además, la aprobación de la Digital Services Act (DSA) introduce nuevas obligaciones para ciertas plataformas de inteligencia artificial. En concreto, estas normas se aplican cuando actúan como intermediarias, es decir, si permiten que los usuarios generen, compartan o difundan contenidos en línea, como imágenes, textos o vídeos. En estos casos, el DSA —que amplía el marco de la Directiva sobre el comercio electrónico— obliga a las plataformas a actuar con diligencia ante contenidos ilegales, a ser más transparentes y a proteger mejor los derechos de los usuarios. Si la plataforma supera los 45 millones de usuarios en la Unión Europea, se considera una very large online platform (VLOP) y debe cumplir requisitos adicionales, como realizar evaluaciones de riesgos sistémicos (por ejemplo, manipulación de información o difusión masiva de desinformación).
Ahora bien, si una plataforma no se limita a alojar contenido de terceros, sino que usa ese contenido para reentrenar sus propios modelos, deja de ser un simple intermediario. En ese caso, asume responsabilidad directa, lo que puede tener consecuencias legales más estrictas.
A pesar de este marco normativo, la aplicación práctica sigue siendo limitada. González Otero advierte de que, «aunque las bases legales existen, el enforcement en Europa es débil, y el mercado favorece comportamientos oportunistas». Casos como el de GEMA contra OpenAI ilustran la dificultad de defender los derechos de autor frente a los modelos de IA.