Após a Microsoft ser acusada de usar códigos do GitHub para treinar uma ferramenta de inteligência artificial própria, desenvolvedores open-source do repositório têm cogitado acionar judicialmente contra a proprietária da plataforma de hospedagem de código-fonte.

Microsoft

Imagem: Shutterstock

Para isso, um site foi lançado para liderar investigações contra a empresa e uma equipe de litigantes reunida pelo programador e advogado Matthew Butterick para liderarem um processo contra a ferramenta GitHub Copilot.

“Como Neo plugado na Matrix, ou uma vaca em uma fazenda, o Copilot quer nos converter em nada mais que produtores de um recurso a ser extraído”, escreveu Butterick em seu site. “Até mesmo as vacas conseguem alimento e abrigo do negócio. O Copilot não contribui em nada para nossos projetos individuais. E nada para o código aberto de forma ampla”.

Em defesa, a Microsoft disse que a ferramenta foi “treinada em dezenas de milhões de repositórios públicos” de código, incluindo os do GitHub, e que ela “acredita[s] que é uma instância de uso justo e transformador”.

Embora os códigos na plataforma estejam disponíveis publicamente, alguns programadores discordam dos argumentos da Microsoft. No Twitter, usuários mostraram exemplos de softwares com linhas de código que são significantemente similares aos próprios repositórios.

Já o GitHub disse que os dados de treinamentos de repositórios públicos “não se destinam a ser incluídos literalmente nas saídas do Codex”, acrescentando que “a grande maioria das saídas (>99%) não corresponde aos dados de treinamento”, segundo a análise interna da empresa.

Desenvolvedores do GitHub querem processar Microsoft por usar seus códigos para treinar IA

Imagem: Sundry Photography/Shutterstock.com

Butterick observa que a Microsoft transfere o ônus legal ao usuário final para assegurar que o código cuspido pela ferramenta não viole a lei de propriedade intelectual, e a chama a suposta estratégia de cortina de fumaça.

O advogado ainda chama a interface do GitHub Copilot de “egoísta”, a medida que há apropriação das comunidades de código aberto sem oferecer nada em troca. “Parece que a Microsoft está lucrando com o trabalho de outros, ignorando as condições das licenças de código aberto subjacentes e outros requisitos legais”, observou escritório de advocacia com o qual Butterick trabalha na investigação, Joseph Saveri.

O GitHub foi comprado pela Microsoft em 2018. Em junho, a empresa da Big Tech lançou o Copilot, uma ferramenta de extensão do ambiente de codificação do Visual Studio que usa previsão para autocompletar linhas de código. A criação foi possível por meio do Codex, um modelo de IA criado e treinado pelo OpenAI por meio de raspagem de dados de repositórios de código da web.

A controversa ética em treinamentos de IA

Obras de arte, músicas e outros dados extraídos de uma rede aberta sem permissão dos seus criadores tornou-se uma prática comum de negócios que envolvam treinamento de inteligência artificial. O tema é controverso e a ética constantemente debatida e criticada.

Desenvolvedores do GitHub querem processar Microsoft por usar seus códigos para treinar IA

Imagem: Den Rise/Shutterstock.com

Exemplos como DALL-E e Midjourney, que cobram de usuários o acesso a poderosos algoritmos, foram treinados,  muitas vezes, com instruções específicas para copiar um determinado artista.

Embora as obras criadas por humanos que constroem ou adaptam obras já existentes, rotuladas como ‘fair use’ ou ‘transformadas’, estejam sob a lei de direitos autorais nos EUA; Butterick observa que o mesmo princípio nunca foi testado quando aplicado a obras criadas por sistemas de IA, mesmo essas coletando obras em massa na web.

“Não precisamos mergulhar na história da Microsoft com fonte aberta para ver o Copilot pelo que ele é: um parasita”, escreve ele no site. “A legalidade do Copilot deve ser testada antes que os danos ao código aberto se tornem irreparáveis”.

 

Via Vice Motherboard

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários