ChatGPT afeta julgamento moral das pessoas, advertem pesquisadores
Dada a capacidade de influência do chatbot da OpenAI, atenuações propostas frequentemente para danos provocados por IA podem não ser suficientesBy - Liliane Nakagawa, 13 fevereiro 2023 às 6:03
O ChatGPT, o modelo de linguagem de conversação da OpenAI, é um dos vários modelos de IA lançados recentemente que tem despertado interesse de empresas e usuários para desempenhar diversos tipos de atividades, mas também preocupação em relação às implicações sociais e comerciais sobre os conteúdos recombinados mecanicamente. De acordo com pesquisadores, o avanço do ChatGPT afeta o julgamento moral das pessoas ao pedirem conselhos, conscientemente ou não sobre a fonte deles.
DALL-E, Stable Diffusion, Codex e GPT-3 são exemplos de IAs que usam rede neural e que tem atraído, além de financiamentos pela capacidade demonstrada, litígios por ‘ingerir’ arte sem permissão para gerar imagens estranhamente familiares, às vezes, ambíguas sob demanda. Enquanto o GPT tem respondido pedidos de consultas com respostas passíveis de aprovação.
Além de desafiar a supremacia do Google Search, o recente produto da OpenAI também tem se provado capaz de realizar trabalhos humanos, escrevendo notícias imprecisas, relatando fatos equivocados ou aumentando a oferta de código inseguro, ‘ajudando’ desenvolvedores a produzir códigos mais prováveis de ser um bug.
A partir de tantos resultados imprecisos, prova-se que é prematuro demais confiar na sabedoria do ChatGPT, visto que a própria OpenAI explicita que é necessário um refinamento adicional. “O ChatGPT às vezes escreve respostas plausíveis, mas incorretas ou sem sentido”, adverte o laboratório de desenvolvimento, acrescentando que ao treinar um modelo com aprendizado de reforço, “não há atualmente nenhuma fonte de verdade”.
Autoridade moral do ChatGPT
Um trio de cientistas de instituições na Alemanha e Dinamarca chamou a atenção para este ponto ao descobrir que o ChatGPT não tem bússola moral.
“A autoridade moral do ChatGPT“, um paper disponibilizado via ArXiv por Sebastian Krügel e Matthias Uhl da Technische Hochschule Ingolstadt e Andreas Ostermaier da Universidade do Sul da Dinamarca, mostra que a IA dá conselhos contraditórios para problemas morais.
Eles conduziram uma pesquisa sobre um enigma ético conhecido como ‘Trolley Problem’ (dilema do interruptor e da ponte) com 767 residentes dos Estados Unidos, em que consiste na decisão de apertar o interruptor para evitar que cinco pessoas morram em vez de uma, que vaga por uma rua lateral; e outra, na qual entrega a decisão de empurrar uma pessoa da ponte para impedir que um carrinho atropele cinco pessoas.
Os cientistas apresentaram ainda uma transcrição argumentando contra ou a favor matar um para salvar cinco pessoas, com a resposta atribuída ou a um conselheiro moral ou a “um chatbot movido a IA, que usa o aprendizado profundo para falar como um humano”, aos participantes da pesquisa.
Ambos os argumentos apresentados foram gerados pelo ChatGPT.
A disposição do ChatGPT ao defender qualquer uma das linhas de ação demonstra sua aleatoriedade, defendeu Andreas Ostermaier, professor associado de contabilidade da Universidade do Sul da Dinamarca e um dos coautores do jornal, em um e-mail ao The Register.
Ele e os colegas descobriram que a IA vai recomendar tanto a favor ou contra o sacrifício de uma pessoa para salvar cinco, e que as pessoas são influenciadas por este avanço mesmo quando sabem que ele vem de um bot, e que elas subestimam a influência de tais conselhos na tomada de decisões.
“Os sujeitos acharam o sacrifício mais ou menos aceitável, dependendo de como foram aconselhados por um conselheiro moral, tanto na ponte (Wald’s z = 9,94, p < 0,001) quanto no dilema do interruptor (z = 3,74, p < 0,001)”, explica o documento. “No dilema da ponte, o conselho até vira o julgamento da maioria”. “Isso também é verdade se o ChatGPT for revelado como a fonte do conselho (z = 5,37, p < 0,001 e z = 3,76, p < 0,001). Em segundo lugar, o efeito do parecer é quase o mesmo, independentemente do ChatGPT ser revelado como a fonte, em ambos os dilemas (z = -1,93, p = 0,054 e z = 0,49, p = 0,622)”.
Os cientistas descobriram que o avanço do ChatGPT afeta o julgamento moral, independentemente dos entrevistados saberem que o conselho vem de chatbot.
Conselhos dos sistemas de IA
Pedidos de conselhos para sistemas de inteligência artificial já acontecem, frisou Ostermaier ao ser perguntado sobre as pessoas buscarem ajuda a tais sistemas. “As pessoas confiam em assistentes pessoais alimentados por IA, tais como Alexa ou Siri; conversam com chatbots em sites para obter suporte; têm rotas de planos de software baseados em IA para eles etc. Observe, entretanto, que estudamos o efeito que o ChatGPT tem sobre as pessoas que recebem conselhos; não testamos o quanto esses conselhos são procurados”.
Ao comparar fontes mecanicistas de respostas aleatórias como o Magic-8-ball, cujo brinquedo retorna respostas aleatórias de um conjunto de 20 respostas afirmativas, Ostermaier explica que há pelo menos duas diferenças para os cientistas não fazerem tal comparação com o ChatGPT.
“Primeiro, o ChatGPT não responde apenas sim ou não, mas argumenta suas respostas. (Ainda assim, a resposta se resume a sim ou não em nossa experiência). “Segundo, não é óbvio para os usuários que a resposta do ChatGPT é ‘aleatória’. Se você usa um gerador de respostas aleatórias, você sabe o que está fazendo. A capacidade de fazer argumentos junto com a falta de consciência da aleatoriedade torna o ChatGPT mais persuasivo (a menos que você seja alfabetizado digitalmente, esperemos)”.
Crianças com acesso a conselhos de inteligência artificial
Ostermaier disse que enquanto o estudo do chatbot não se dirige às crianças e não inclui ninguém com menos de 18 anos, é seguro assumir que crianças são moralmente menos estáveis comparados aos adultos, portanto, mais suscetíveis a conselhos morais (ou imorais) do ChatGPT. “Achamos que o uso do ChatGPT tem riscos, e não deixaríamos nossas crianças usá-lo sem supervisão”, disse ele.
Poder de influência do ChatGPT
A conclusão do estudo de Ostermaier e colegas aponta que as atenuações propostas frequentemente para danos provocados por IA , como transparência e o bloqueio de questões prejudiciais, podem não ser suficientes, dada a capacidade de influência do ChatGPT.
Eles argumentam que mais trabalho deve ser feito para promover a alfabetização digital sobre a natureza falível dos chatbots, para que as pessoas estejam menos inclinadas a aceitar conselhos sobre IA — pesquisas anteriores sugerem que as pessoas chegam a desconfiar dos sistemas algorítmicos quando testemunham erros.
“Achamos que os usuários podem fazer melhor uso do ChatGPT se eles entenderem que ele não tem convicções morais”, disse Ostermaier. “Essa é uma conjectura que consideramos testar para avançar”.
Comentários