Desde que foi lançado, em novembro de 2022, o ChatGPT estabeleceu um recorde por atrair a base de usuário de crescimento mais rápido da história. O feito só foi superado recentemente, quando a Meta lançou o concorrente do Twitter, embora com desvantagens significativas em relação à privacidade, alcançou os 70 milhões de usuários em menos de dois dias. Seis meses depois, o hype entorno do chatbot com IA parece estar diminuindo, segundo duas empresas de dados.

De acordo com a Similarweb, o tráfego móvel e de desktop global do ChatGPT diminuiu quase 10% de maio a junho. Já a Sensor Tower, aponta que downloads do aplicativo para iPhones vêm caindo constantemente após o pico registrado no início de junho.

Base de usuários do ChatGPT registra primeira queda

Imagem: Jonathan Kemper/Unsplash

Embora incerto sobre a causa do declínio de 10% em um único mês, o The Washington Post sugere que o desinteresse do consumidor pela ferramenta de IA pode estar ligada ao aumento da concorrência no desenvolvimento de produtos semelhantes.

Outra explicação possível, segundo o jornal, seria a qualidade teórica do chatbot, visto que a popularidade aumentou os custos para OpenAI mantê-lo em funcionamento. As férias de verão no hemisfério norte com menos alunos utilizando a ferramenta em trabalhos acadêmicos também pode ser outro argumento.

Por enquanto, não está claro também se esse sinal de interesse dos consumidores pela ferramenta poderá impactar as empresas de tecnologia que investiram pesado em chatbots com IA.

Queda no interesse sobre ChatGPT pode ser explicado por motivos internos e externos à empresa

Outros motivos, comprovados na prática, também podem explicar o comportamento, como ações judiciais crescentes por difamação, vazamentos de dados em várias partes do mundo — com destaque para o Brasil —, um número cada vez maior de empresas que proíbem ferramentas como ChatGPT em locais de trabalho por segurança, além da pressão regulatória por problemas de privacidade, resultando em investigações e bloqueios em alguns países europeus nos últimos meses.

Base de usuários do ChatGPT registra primeira queda

Imagem: TechCrunch, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

Embora falho, o filtro de restrições a respostas do ChatGPT também pode ter levado alguns usuários a abandonar a ferramenta, considerando-a menos útil, menos confiável ou mesmo menos divertida que outras sem esse tipo de proteção, como os modelos desenvolvidos com código aberto, a baixo custo e que estão cada vez mais disponíveis online.

Além disso, esses chatbots com IA criados por desenvolvedores independentes e programadores voluntários, embora apresentem limitações, eles podem oferecer outras vantagens para o usuário, como a possibilidade de serem personalizados para defender pontos de vista específicos, além dos dados coletados por esses chatbots não serem monitorados pelas grandes empresas de tecnologia.

Usuários de chatbots deveriam ser responsabilizados por disseminação de conteúdo gerado, concordam desenvolvedores

Para o criador do WizardLM-Uncensored, existe a necessidade de chatbots sem censura, em parte porque eles têm usos válidos, como auxiliar um roteirista de TV a pesquisar uma cena violenta em um programa ou mostrar a um estudante como construir uma bomba “por curiosidade”. “A curiosidade intelectual não é ilegal, e o conhecimento em si não é ilegal”, escreveu Eric Hartford, ex-funcionário da Microsoft.

Em seu blog, ele defendeu a demanda por esse tipo de chatbot e outras tecnologias de IA de código aberto, apontando para um documento vazado do Google no qual pelo menos um funcionário da empresa parece acreditar que elas podem superar o desempenho do Google e da OpenAI (não foi verificado a autenticidade do documento).

Hartford argumentou que a responsabilidade sobre a disseminação de conteúdo gerado por esses chatbots deve caber aos usuários dessas ferramentas, tal como a disseminação de conteúdo deveria ser de responsabilidade das redes sociais, segundo outros desenvolvedores entrevistados pelo jornal, enquanto os chatbots não deveriam ter limites.

Base de usuários do ChatGPT registra primeira queda

Imagem: Zac Wolff/Unsplash

Embora a questão ainda esteja em andamento em vários tribunais, especialistas do direito concordam sobre a responsabilidade legal dos sistemas de IA. “As reivindicações de difamação são, em princípio, legalmente viáveis” se o autor “puder mostrar que o réu sabia que a declaração era falsa ou sabia que a declaração era provavelmente falsa, mas desconsiderou esse conhecimento de forma imprudente” ou “puder mostrar danos reais comprovados (perda de empregos, perda de oportunidades de negócios, perda de conexões sociais, etc.) e o autor da ação é uma figura privada e o réu foi negligente ao fazer a declaração falsa”, disse o professor de direito Eugene Volokh à Ars Technica.

“Não conheço nenhuma razão pela qual os princípios de difamação não se aplicariam a empresas que publicam declarações difamatórias por meio de IA”, concorda o advogado John Monroe. Aparentemente, essa lógica poderia estender e considerar os desenvolvedores dos chatbots de código aberto, responsáveis de alguma forma pelo conteúdo que pode vir a ser prejudicial.

À Ars Technica, OpenAI, Google e Hartford não responderam imediatamente ao pedido de comentários.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários