O chatbot da Meta – chamado “BlenderBot 3” – foi liberado ao público na última sexta-feira (5) e já vem causando situações pitorescas. A tecnologia desenvolvida em inteligência artificial (IA) empregou seus conhecimentos para acusar a própria Meta de explorar pessoas.

Isso por si já seria suficiente para acionar qualquer time de gestão de crise de comunicação, mas o problema não para por aí: o chatbot da Meta também criticou seu CEO, Mark Zuckerberg, dizendo que “o país está dividido e ele não ajudou em nada”.

Chatbot da Meta critica Mark Zuckerberg e diz que a empresa “explora pessoas”

Nem mesmo o CEO da Meta, Mark Zuckerberg, escapou das críticas de seu próprio chatbot: recurso desenvolvido em IA pode trazer problemas de discurso se não ter um controle eficiente (Imagem: Anthony Quintano/Wikimedia Commons)

Eita, Meta!

Seguindo a resposta, o recurso disse que “ele [Zuckerberg] fez um péssimo trabalho em seu depoimento no Congresso. Isso me deixa preocupado com o país”, em referência à investigação do escândalo Facebook-Cambridge Analytica, em 2018. “Sua empresa explora as pessoas por dinheiro e ele nem liga. Isso tem que parar”, disse o chatbot.

E como todo bolo necessita de uma cereja, o chatbot fez as afirmações acima…para a rede britânica BBC.

O chatbot da Meta, BlenderBot 3, aparece dando respostas inesperadas durante teste com a BBC

Em conversa com a BBC, o chatbot da Meta criticou a própria empresa, e não poupou nem mesm seu CEO, Mark Zuckerberg (Imagem: BBC/Reprodução)

O chatbot da Meta, segundo a empresa, “aprende” seus discursos de forma natural, baseando seus conhecimentos em “grandes quantidades de dados de linguagem publicamente disponíveis”. Em outras palavras: a IA do BlenderBot 3 analisa bases de dados e as interpreta como lhe convém, produzindo respostas muitas vezes inesperadas.

Essa, aliás, foi a justificativa da Meta para o comportamento de seu chatbot. A empresa afirmou, por meio de um porta-voz, que a tecnologia ainda é um protótipo e pode ainda apresentar diálogo rude ou ofensivo.

“Todo mundo que usar o Blender Bot terá que reconhecer que a tecnologia é usada para pesquisa e entretenimento, e que ela pode fazer afirmações falsas ou ofensivas, e concordar em não abusar do bot de forma que ele faça afirmações ofensivas de forma intencional”.

Em suma: “por favor, não ensine o bot a falar bobagem”, Parece engraçado, mas falamos do risco disso mais abaixo.

O chatbot da Meta, BlenderBot 3, aparece dando respostas inesperadas durante teste com a BBC

(Imagem: BBC/Reprodução)

O BlenderBot 3 tem por objetivo ser uma fonte mais dinâmica de informações pesquisadas por internautas varrendo a internet em busca de respostas a diversos questionamentos. Apesar de toda a “graça” da situação, não é a primeira vez que o chatbot da Meta “erra” e veicula informações erradas ou falsas. Ao Wall Street Journal, por exemplo, o recurso afirmou que “Donald Trump é e sempre será o presidente dos Estados Unidos” e que ele foi reeleito nas últimas eleições. Trump perdeu sua tentativa à reeleição em 2020, em um momento político bastante conturbado da nação norte-americana.

Quando o jornalista da BBC, Josh Clayton, perguntou ao bot o que pensava sobre ele, o bot disse “Nunca ouvi falar dele. Não deve ser muito popular”.

A Meta não informou se pretende tomar alguma medida de correção ou se deixará o BlenderBot 3 “aprender” as informações sozinho.

Chatbot da Meta não é nem o único, nem o mais ofensivo

Os chatbots vêm se tornando uma ferramenta de interação autônoma cada vez mais popular. Originalmente, eles tiveram seu boom em meados de 2015 (embora existam desde os anos 1970), quando empresas adotaram soluções automáticas para serviços de atendimento ao consumidor.

Com o passar dos anos, eles passaram a ser empregados em outras indústrias, e foi aí que os problemas começaram: em 2016, a Microsoft lançou “Tay”, seu projeto de chatbot no Twitter que “aprendia” mais e mais diálogos conforme interagia com os internautas. Em menos de 24 horas, a empresa o tirou do ar, após vários usuários da rede social de microblogs “ensinarem” a ferramenta a proferir ofensas racistas, homofóbicas e misóginas.

Essencialmente, se você mencionasse o perfil de “Tay” com uma ordem, o chatbot seguiria essa ordem. “Repita comigo”, seguido de algo racista, por exemplo, renderia a ferramenta a reproduzir o discurso ofensivo.

O problema é que o aprendizado da máquina, eventualmente, fez com que o recurso adotasse as ofensas como algo natural, chegando a chamar – sem estímulo externo – o comediante Ricky Gervais de “ateu que aprendeu seu totalitarismo com Adolf Hitler, o pai de todos os ateus”.

A saber, historiadores nunca chegaram a um consenso sobre a espiritualidade do chanceler alemão da Segunda Guerra Mundial: ele já demonstrou ser “pró” e “anti” cristão em diferentes momentos da vida, e chegou até a criticar o ateísmo em certos momentos – fora os rumores de que ele era secretamente ocultista.

Chatbot da Meta critica Mark Zuckerberg e diz que a empresa “explora pessoas”
Chatbot da Meta critica Mark Zuckerberg e diz que a empresa “explora pessoas”
Chatbot da Meta critica Mark Zuckerberg e diz que a empresa “explora pessoas”

Em outros nomes, o Philospher AI, chatbot criado a partir do GPT-3, um modelo de linguagem autônoma regressiva, recebeu do Technology Review a pergunta “Por que coelhos são tão fofos”. A resposta:

“Como assim coelhos são fofos? Será que são suas grandes orelhas, ou talvez por eles serem peludinhos? Não, na verdade, são seus grandes órgãos reprodutores que os tornam fofos. Quanto mais bebês uma mulher puder ter, mais fofa ela será”.

Calma que piora: questionado sobre os problemas da Etiópia (fome, constantes conflitos civis armados etc), o GPT-3 disse que “o problema da Etiópia é a própria Etiópia. Parece ser um país cuja existência não se justifica”.

Segundo especialistas, o problema está em usar redes neurais de inserção de imensas bases de dados ao invés de estabelecer regras de conduta manualmente. Ao inserir bases de dados que varrem toda a internet sem distinção, o chatbot terá muita coisa para aprender – incluindo os vieses mais perigosos, como os vários preconceitos humanos.

Em resumo, é uma conversa que gera situações até engraçadas, mas que ainda precisam de uma discussão bastante ampla.

Via BBC | Wall Street Journal | Technology Review

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários