Desafíos legales en el auge de la IA generativa: derechos de autor, legislación variada y propuestas para equilibrar la innovación y la compensación para los creadores
por Leandro Bisoli e Ana Piergallini, socio y abogado de Peck Advogados respectivamente
El aumento en el uso de ChatGPT, IA generativa de OpenAI, es notable. La empresa, considerada la más disruptiva de Silicon Valley¹, anunció la actualización de su base de datos, ampliándola más allá de 2021². Esta ampliación implica el uso de un volumen aún mayor de datos, incluidas obras intelectuales protegidas por derechos de autor, publicados hasta la fecha de la actualización.
A medida que OpenAI mejora sus algoritmos y modelos de lenguaje natural, se enfrenta a un aumento de disputas legales relacionadas con posibles infracciones de derechos de autor de los trabajos utilizados en la formación de estos modelos, como en la reciente demanda colectiva presentada por el Authors Guild³. El meollo de la disputa radica en la capacidad de estos modelos de IA para producir resultados muy cercanos a las obras protegidas, lo que genera preocupaciones legítimas sobre reproducciones no autorizadas y sus impactos en la explotación regular de obras originales.
Comprender cómo funcionan los modelos de lenguaje, especialmente los llamados Large Language Models (LLM), que están diseñados para realizar tareas de procesamiento del lenguaje natural, así como la arquitectura GPT (Generative Pre-Training Transformer), es fundamental para comprender estas disputas. La capacidad de estos modelos para ofrecer resultados de alta calidad está directamente relacionada con el importante volumen de datos utilizados en su formación.
Legislación que regula el uso de obras protegidas varían de una jurisdicción a otra. Japón, por ejemplo, cuya legislación sobre derechos de autor se actualizó en 2009, permite el uso de obras protegidas para entrenar modelos de IA, con el objetivo de mejorar el aprendizaje automático. En Estados Unidos, donde hay varias disputas legales en curso, se ha aplicado la excepción del uso legítimo. En Brasil, el PL nº 2338/2023, actualmente en trámite en el Congreso Nacional, propone una hipótesis de limitación en el art. 42, con el objetivo de fomentar la investigación científica de interés público y la innovación. La excepción está justificada, siempre que el uso no tenga fines expresivos y cumpla con los requisitos de los convenios internacionales de los que Brasil es parte.
la aplicación de concepto de “uso legítimo” parece ser un enfoque apropiado en el contexto, siempre y cuando se observen algunas reservas, tales como: (i) garantizar los derechos morales de los autores, con énfasis en el derecho de paternidad – el debido crédito debe atribuirse al autor original – una desafío cuando se trata de un vasto conjunto de datos de entrada; y, (ii) evitar generar resultados que se asemejen sustancialmente a las obras originales o que emulen la creación de un autor específico –la delgada línea entre el uso legítimo y la falsificación o plagio.
Además, el deber de transparencia establecido por normativa europea y proyecto de ley nacional. El uso de contenidos generados por IA debe ir acompañado de advertencias sobre su generación automatizada, que permitan a los usuarios tomar decisiones informadas sobre su consumo.
Una solución relevante para conciliar los intereses en juego es la implementación de un modelo de gestión colectiva similar al utilizado por las plataformas de streaming. Como sostiene Nicola Lucchi en un artículo científico reciente publicado en Cambridge Magazine⁴, los acuerdos para el uso compartido de datos pueden usarse como referencia para resolver el uso de obras protegidas en la formación de IA, garantizando al mismo tiempo el cumplimiento de las leyes de derechos de autor y los derechos de propiedad intelectual. autores, respaldados por las licencias necesarias. Además, la creación de programas de compensación, como el reparto de ingresos o el pago de regalías, puede funcionar para compensar a los autores de obras protegidas derechos de autor utilizados para el entrenamiento de IA.
Mientras se llevan a cabo este tipo de debates, las grandes empresas tecnológicas buscan consolar a sus usuarios con salvaguardias para fomentar uso seguro de sus soluciones de IA. Google, por ejemplo, acaba de anunciar su compromiso de indemnizar a los usuarios en casos de reclamaciones de terceros, especialmente reclamaciones de derechos de autor, reforzando que sigue prácticas responsables de IA.⁵
Por tanto, tenemos mucho que evolucionar, especialmente en lo que respecta al procesamiento de datos de entrada. Los resultados de las acciones legales tomadas contra OpenAI y otros desarrolladores de IA generativa ciertamente contribuirán al debate en curso y ayudarán a la comunidad a establecer límites claros entre lo que es inspiración y lo que constituye violación.
La creación de tales parámetros se vuelve esencial para promover la equilibrio entre el sistema de derechos de autor y el avance tecnológico, al tiempo que garantiza que los creadores de contenido reciban una compensación justa por su trabajo.
fuente: Análisis Editorial