A OpenAI lançou, ainda em alfa, um novo recurso que permite ao ChatGPT operar por meio de plugins para acessar bases de dados terceirizadas e, assim, arregimentar uma capacidade maior de busca por informações na hora de formular suas respostas aos usuários. Tais bases incluem também as públicas – como a internet aberta.

Em termos bem resumidos, o ChatGPT agora pode “surfar na web”.

Como usar o ChatGPT

Imagem: Shutterstock

A página dedicada à novidade já está no ar, mas o recurso em si ainda está em ambiente primário de testes, disponível apenas para usuários prioritários e desenvolvedores na lista de espera da inteligência artificial (IA) generativa da OpenAI, mas a empresa já prometeu que, no futuro próximo, vai liberar acesso público e até liberar uma API para integração do recurso em empresas e entidades que incorporam o ChatGPT em seus serviços.

Um dos plugins – um first party, ou seja, criado pela própria OpenAI – permite que o ChatGPT vasculhe a web aberta por informações para responder a perguntas. Anteriormente, a ferramenta era incapaz de responder informações que viessem antes de setembro de 2021 – mas a novidade pode fazer com que ela faça consultas a bases anteriores.

Em tese, isso pode aumentar um pouco o tempo de resposta, mas em troca oferecer maior precisão nas informações passadas. O plugin em questão se vale da capacidade de busca do Bing, o concorrente do Google feito pela Microsoft, com quem a OpenAI firmou parceria mês passado.

Acesso à web pode elevar ou quebrar o ChatGPT

Permitir que uma IA generativa acesse a internet aberta de forma livre não é algo inédito: o BlenderBot 3.0 – a IA que a Meta “matou” há alguns meses – tinha essa mesma capacidade e rapidamente a situação “foi para o vinagre”, como diz a expressão popular.

Até mesmo uma versão anterior do ChatGPT – chamada “WebGPT” – teve problemas: por mais vezes do que seria confortável para um projeto do tipo, o protótipo respondia a perguntas por meio de fontes duvidosas ou comprovadamente mentirosas, além de forçar sua base de conhecimento em direção a bases de dados questionáveis se ele “percebesse” que o usuário tivesse mais predisposição de se convencer da resposta por esse método.

Em resumo: se o WebGPT percebesse que você tem uma predileção por sites conhecidos por compartilhar fake news, ele os usaria de fonte mesmo que a informação fosse reconhecidamente falsa. Basicamente, um “cala a boca” virtual para que você não o pressione.

Assim como o BlenderBot 3.0, o WebGPT acabou caindo no terreno das teorias da conspiração, compartilhando coisas bem absurdas, como questionar a já amplamente comprovada visita do homem à Lua e outras falhas.

Isso porque, ao contrário de uma base de dados de treinamento de IA, a web aberta tem menos filtros e menos curadoria de conteúdo. A OpenAI não tem como “monitorar” a internet, afinal, então o ChatGPT pode acabar tropeçando em terrenos onde desmenti-lo pode ser uma necessidade.

E mesmo no âmbito controlado, ainda pode haver problemas: o Bard, a resposta do Google ao ChatGPT, compartilhou informações erradas no seu evento de revelação. Imagine, então, algo do mesmo tipo, só que sem “freio”.

Como resposta a isso, a OpenAI reconheceu que o projeto é algo potencialmente perigoso e que poderá abrir portas para toda a sorte de maus atores, mas afirma ter posicionado “diversos mecanismos de segurança”, além de reforçar que há toda uma gestão humana por trás do projeto.

Se isso tudo vai funcionar, porém, só o tempo é quem vai dizer.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários