Caso de direitos autorais de IA antrópica envolve ‘guardrails’ para letras de músicas –

  • A juíza federal aprovou um acordo provisório em um processo que alega que a empresa de IA Anthropic usou letras de músicas protegidas por direitos autorais sem autorização ou pagamento enquanto treinava seu sistema.
  • Editoras de música, incluindo a Universal Music Group, Concord Music Group e ABKCO, entraram com uma ação por violação de direitos autorais contra a Anthropic em 2023.
  • O acordo assinado entre as editoras e a Anthropic requer que a empresa mantenha suas atuais barreiras de direitos autorais durante o processo de litígio.

Um juiz federal aprovou um acordo provisório em um processo que alega que a empresa de IA Anthropic usou letras de músicas protegidas por direitos autorais sem autorização ou pagamento enquanto treinava seu sistema. Editoras de música, incluindo Universal Music Group, Concord Music Group e ABKCO, entraram com uma ação por violação de direitos autorais contra a Anthropic em 2023. O processo alega que o chatbot de IA Claude da Anthropic foi treinado em, e produz resultados para consultas sobre letras de pelo menos 500 músicas de artistas famosos, incluindo Beyoncé e Katy Perry, sem que a Anthropic tenha obtido permissão ou compensação dos detentores dos direitos.

Na quinta-feira, a juíza do Tribunal Distrital dos EUA, Eumi Lee, aprovou um acordo entre as editoras e a Anthropic que exige que a empresa de IA mantenha suas atuais barreiras de direitos autorais – o que significa não fornecer letras de músicas antigas ou novas – durante todo o processo de litígio. O acordo diz que nada impede a Anthropic de “expandir, melhorar, otimizar ou alterar a implementação de tais barreiras, desde que tais mudanças não diminuam significativamente a eficácia das barreiras”. Também permite que as editoras notifiquem a Anthropic a qualquer momento se considerarem que as barreiras são insuficientes, momento em que a empresa deve abordar suas preocupações.

É esperado que o tribunal decida nos próximos meses se as músicas de propriedade das editoras de música podem ser usadas para treinar os sistemas de IA. O caso destaca a tensão entre desenvolvedores de IA generativa e detentores de direitos autorais, e não apenas na indústria musical. Editoras, incluindo The New York Times, processaram a OpenAI, fabricante do ChatGPT, e a Microsoft, e o The Wall Street Journal e Dow Jones processaram a Perplexity, todos alegando violação de direitos autorais. Outras editoras, entretanto, fecharam acordos de licenciamento com empresas de IA, incluindo a OpenAI e a Meta. A Anthropic, apoiada pela Amazon, Google, Salesforce e outros, foi fundada por antigos pesquisadores da OpenAI em 2021. Seu sistema é treinado em conjuntos de dados que podem incluir materiais protegidos por direitos autorais, como letras de músicas, o que levantou questões sobre o uso justo e a licenciatura adequada.