Google abre seu chatbot para testes públicos (com algumas restrições)
O Google criou seu chatbot, LaMDA, como modelo de conversação entre humanos e máquinas, mas só o liberou para alguns públicosBy - Rafael Arbulu, 26 agosto 2022 às 13:15
O “modelo virtual de conversação” do Google – o chatbot batizado de “LaMDA” – está oficialmente aberto para testes públicos, o que indica que, em pouco tempo, internautas poderão acessar a página dedicada de produtos em teste da empresa de Mountain View e “brincar” com o sistema autônomo de diálogo.
Um chatbot é, essencialmente, uma tecnologia de conversação entre humanos e máquinas. Antigamente, essas ferramentas seguiam discursos pré-programados que as fizeram ser empregadas em serviços de atendimento ao consumidor. No entanto, hoje, empresas de tecnologia pesquisam o uso da inteligência artificial (IA) para deixar o diálogo automatizado mais fluido e natural.
No caso do Google, a LaMDA teve a sua segunda versão anunciada em maio deste ano, junto de sua plataforma de testes de aplicações em IA (AI Test Kitchen). A ideia é usar a tecnologia para aprimorar serviços já existentes da empresa, como a Busca, o Assistente entre outros. Sim, é “aquela LaMDA” que causou a demissão de um engenheiro da empresa que a achou “sensível e consciente”.
O teste público aberto hoje, no entanto, tem algumas restrições: a primeira é que ele está restrito a apenas alguns públicos dos EUA (embora você possa registrar seu interesse em testar a aplicação mesmo no Brasil). Outras regiões devem ser abertas “nas próximas semanas”, segundo a empresa.
A segunda condição é a de que você concorde com os termos de uso, que exigem que você não compartilhe nenhuma informação pessoal – sua ou de outras pessoas – com a tecnologia. Isso porque o próprio Google admite que, o que quer que você diga durante o teste, isso pode ser usado pela empresa no aprimoramento do projeto. Em outras palavras: não espere pela capacidade de deletar sua interação e todas as informações de sua conversa.
Ao ZDNet, o Google afirmou que, por ser uma ferramenta em teste com base em redes neurais, seu recurso pode “aprender” coisas que a faça responder de forma pouco apreciada. É provável que isso seja uma referência aos recentes casos dos testes da BlenderBot 3, da Meta, que teceu críticas ao próprio CEO da empresa – Mark Zuckerberg -, além de responder com fake news que afirmavam que Donald Trump ainda seria o presidente dos EUA.
As duas empresas reconheceram que a tecnologia ainda pode apresentar esse tipo de resposta mais rude. O intuito parece ser o de se eximir de qualquer responsabilidade no caso de interações mais nocivas: em 2016, a Microsoft lançou o “Tay”, seu chatbot de interação no Twitter. A internet, sendo o que ela é, rapidamente “ensinou” a ferramenta a proferir ofensas racistas, antissemitas e misóginas. Eventualmente, “Tay” entendeu esses discursos como algo natural e passou a reproduzi-los por conta própria, levando a Microsoft a desligar a plataforma por completo e pedir desculpas.
No caso do Google, a LaMDA está disponibilizada com algumas contenções instaladas: o teste, segundo relatos de usuários norte-americanos, consiste de três interações distintas – Imagine It, List It e Talk About It. As três são regidas por ordens simples para extrair respostas detalhadas da tecnologia:
- Imagine It: você digita o nome de algum lugar e a IA “oferece caminhos para explorar a sua imaginação” sobre ele
- List It: você compartilha um desejo ou objetivo em uma frase simples – “quero comprar uma casa”, por exemplo – e a IA responde com uma série de dicas sugeridas para você conquistar esse objetivo
- Talk About It: você sugere um tópico de interesse para bater-papo com a IA. Aqui, o Google impôs um limite – a conversa do teste deve ser sobre cães – e somente sobre cães. Provavelmente pelo fato deste terceiro pedaço ser mais “liberal” nas interações, a empresa sabe que algumas pessoas tentarão usar o recurso para conversas mais rudes e ofensivas.
A página para registro do teste já está online.
Comentários