Sistemas de IA generativa preparam-se para a luta pelo uso justo
A onda de sistemas de inteligência artificial (IA) generativa que está a entrar no mercado enfrenta uma série de desafios relacionados à propriedade intelectual nos tribunais. Em um caso específico, os detentores de direitos autorais alegam que os sistemas de IA generativa infringem as obras protegidas por direitos autorais dos proprietários. Essa infração, argumentam os detentores de direitos autorais, ocorre tanto no «lado da entrada» quanto no «lado da saída» dos sistemas. No lado da entrada, os detentores de direitos autorais argumentam que o processo de «treinamento» dos algoritmos ou modelos dos sistemas, por meio da ingestão de grandes quantidades de obras disponíveis publicamente, infringe os direitos autorais dos proprietários. No lado da saída, os detentores dos direitos autorais alegam que as obras secundárias criadas pelos sistemas de IA generativa infringem os direitos autorais dos proprietários. Os réus alegam (ou devem alegar) que as atividades acusadas são uso justo permitido, levantando a questão de se o uso justo protege as empresas de IA de reclamações por violação de direitos autorais. A seguir estão alguns dos casos atualmente pendentes que as partes interessadas podem querer acompanhar para acompanhar os desenvolvimentos sobre esta questão:
- Tremblay contra OpenAI, Inc., N.º 3:23-cv-03223 (N.D. Cal.):1 Um grupo de autores processou a OpenAI no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, alegando que a OpenAI infringiu os direitos autorais dos livros dos demandantes ao treinar o ChatGPT da OpenAI e outros produtos de IA com essas obras. Os réus entraram com uma moção para indeferir todas as causas de ação, exceto a alegação de violação direta de direitos autorais. O tribunal indeferiu certas alegações contestadas, mas concedeu permissão para alterar a reclamação do demandante.
- Andersen v. Stability AI Ltd., N.º 3:23-cv-00201 (N.D. Cal.): Três artistas visuais processaram a Stability AI Ltd., a Stability AI, Inc., a Deviant Art, Inc. e a Midjourney, Inc. em nome de uma classe putativa no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, alegando que os réus infringiram as imagens protegidas por direitos autorais dos autores ao treinar os seus respectivos sistemas de IA generativa com essas obras. Cada réu moveu uma ação para indeferir, e o tribunal indeferiu todas as reclamações contra os três réus com permissão para alterar, exceto a reclamação de violação direta contra a Stability AI. Os autores apresentaram uma reclamação alterada, adicionando a Runway AI, Inc. à reclamação. Até a data deste artigo, cada réu moveu uma ação para indeferir as reclamações alteradas dos autores.
- Authors Guild v. OpenAI, Inc., N.º 1:23-cv-08292 (S.D.N.Y.): Autores de direitos autorais registrados processaram a OpenAI no Tribunal Distrital dos Estados Unidos para o Distrito Sul de Nova Iorque, alegando que a OpenAI infringiu os direitos autorais dos autores ao treinar o ChatGPT com essas obras.Até à data deste artigo, o réu apresentou a sua resposta e alegou várias defesas, incluindo o uso justo.
- Getty Images (US), Inc. v. Stability AI, Inc., N.º 1:23-cv-00135 (D. Del.): A Getty Images processou a Stability AI no Tribunal Distrital dos Estados Unidos para o Distrito de Delaware, alegando que a Stability AI infringiu as obras protegidas por direitos autorais da Getty ao treinar a IA acusada da Stability AI com mais de 12 milhões de imagens protegidas por direitos autorais da Getty. O réu apresentou uma moção para indeferir o processo com base em vários fundamentos e solicitou a transferência do processo. Até à data deste artigo, o tribunal ainda não se pronunciou sobre essas moções.
- The New York Times Co. v. Microsoft Corp., No. 1:23-cv-11195 (S.D.N.Y.): O New York Times processou a OpenAI e a Microsoft (e entidades corporativas relacionadas) no Tribunal Distrital dos Estados Unidos para o Distrito Sul de Nova Iorque, alegando que a Microsoft e a OpenAI infringiram os direitos autorais dos artigos de jornal do Times ao treinar os chatbots acusados com os artigos do Times. Os réus solicitaram a rejeição do processo, e a Microsoft solicitou a intervenção e a rejeição, suspensão ou transferência. Até a data deste artigo, o tribunal não havia decidido sobre essas moções.
Esses casos ainda estão em fase inicial, mas é provável que cada um dos réus invoque uma defesa de uso justo, o que tornará esses casos os primeiros a abordar a aplicabilidade da defesa de uso justo no contexto da IA. Embora alguns acreditem que treinar modelos de IA com obras protegidas por direitos autorais seja claramente um uso justo,2 a natureza única da IA e a falta de transparência inerente ao funcionamento dos sistemas podem tornar essa questão menos clara e, potencialmente, apresentar maiores desafios aos infratores acusados.
Um desafio específico pode advir do facto de os infratores acusados não saberem exatamente como os seus sistemas de IA funcionam. Por exemplo, os modelos de aprendizagem profunda — uma das formas mais prevalentes de IA moderna — aprendem da mesma forma que os seres humanos.3 Nesses modelos, as empresas treinam os seus algoritmos com exemplos corretos de algo que desejam que o algoritmo reconheça e, eventualmente, os algoritmos desenvolvem uma “rede neural” capaz de categorizar coisas às quais os algoritmos não foram expostos.4 Na verdade, os utilizadores de sites provavelmente participaram inadvertidamente desse treinamento ao preencher um «reCAPTCHA» para acessar um site (por exemplo, clicar em todas as placas de rua em uma determinada imagem). Devido à forma como esses modelos de aprendizagem profunda funcionam, as empresas de IA não sabem exatamente como seus sistemas tomam decisões ou chegam a conclusões — um fenómeno conhecido como problema da «caixa preta».5
O uso justo é uma defesa afirmativa contra a violação de direitos autorais, e o infrator acusado tem o ônus de provar a defesa. Ao decidir se um uso é justo, os tribunais consideram os seguintes fatores: (1) a finalidade e o caráter do uso; (2) a natureza da obra protegida por direitos autorais; (3) a quantidade e a substancialidade da parte usada; e (4) o efeito do uso sobre o mercado potencial da obra protegida por direitos autorais.6 O problema da caixa preta pode muito bem ser algo que os infratores acusados precisam de contornar ao articular como esses fatores pesam a favor do uso justo, potencialmente apresentando desafios para demonstrar o uso justo. Essa questão pode afetar todos os quatro fatores, mas pode ser particularmente desafiadora para o fator (3). Por exemplo, se os réus de IA não sabem como os seus sistemas aprendem, pode ser difícil explicar a um tribunal a “quantidade e substancialidade da parte utilizada”. As partes interessadas vão querer acompanhar os casos acima mencionados para ver se o problema da caixa preta se torna uma questão, bem como para obter informações sobre como os tribunais lidam com o uso justo no contexto da IA.
- Dois outros processos envolvendo autores foram movidos no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia contra a OpenAI e, em seguida, consolidados no processo Tremblay em outubro de 2023. Ver Chabon v. OpenAI, Inc., N.º 3:23-cv-04625 (N.D. Cal.) e Silverman v. OpenAI, Inc., N.º 3:23-cv-03416 (N.D. Cal.). ↩︎
- Ver Katherine Klosek, Treinar modelos de IA generativa em obras protegidas por direitos autorais é uso justo, Associação de Bibliotecas de Investigação, última atualização em 23 de janeiro de 2024 (acessado em 28/02/2024), https://www.arl.org/blog/training-generative-ai-models-on-copyrighted-works-is-fair-use/. ↩︎
- Lou Blouin, O misterioso problema da «caixa preta» da IA explicado, UM-Dearborn News, 6 de março de 2023 (acessado em 28/2/2024), https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained. ↩︎
- Id. ↩︎
- Id. ↩︎
- Ver Andy Warhol Foundation for the Visual Arts, Inc. v. Goldsmith, 143 S. Ct. 1258 (2023). ↩︎