A popularidade e o crescimento do programa de inteligência artificial ChatGPT, da OpenAI, têm atraído a atenção de legisladores norte-americanos e levantado questionamentos sobre o seu impacto na segurança nacional, na privacidade dos cidadãos e na educação.

O representante Ted Lieu, democrata do Comitê Científico da Câmara dos Deputados, disse que além de estar entusiasmado com a inteligência artificial e as “maneiras incríveis como ela continuará a avançar a sociedade”, mas também “assustado pela IA, especificamente pela IA que é deixada sem controle e sem regulamentação”.

Uma resolução escrita pelo ChatGPT e introduzida por Lieu dizia que o Congresso deveria se concentrar na IA “para assegurar que o desenvolvimento e a implantação da IA seja feita de forma segura, ética e que respeite os direitos e a privacidade de todos os americanos, e que os benefícios da IA sejam amplamente distribuídos e os riscos sejam minimizados”.

Em janeiro, o CEO da OpenAI Sam Altman foi ao Capitol Hill onde se encontrou com legisladores orientados à tecnologia. Nesse encontro, um dos assessores pressionou Altman sobre a necessidade de garantir que a IA não incluísse preconceitos que levariam à discriminação no mundo real, como moradia ou empregos. “Enquanto o senador Wyden acredita que a IA tem um tremendo potencial para acelerar a inovação e a pesquisa, ele está focado no laser para garantir que os sistemas automatizados não automatizem a discriminação no processo”, disse o assessor de Wyden, Keith Chu.

Popularidade de ChatGPT atrai atenção de legisladores

Imagem: Zac Wolff/Unsplash

Recentemente, com preocupações com plágio, o ChatGPT foi banido de escolas em Nova York e Seattle. Em resposta, a OpenAI declarou que “Não queremos que o ChatGPT seja usado para fins enganosos nas escolas ou em qualquer outro lugar, portanto já estamos desenvolvendo mitigações para ajudar qualquer pessoa a identificar o texto gerado por esse sistema”.

Quanto às preocupações levantadas pelos legisladores, a diretora de tecnologia da empresa, Mira Murati, disse que “Não é muito cedo (para os reguladores se envolverem)”, em uma entrevista para a Time.

Além dos pontos levantados pelos legisladores, há preocupações relacionadas à segurança nacional, segundo Andrew Burt, sócio gerente do BNH.AI, um escritório de advocacia focado em responsabilidade AI. Ele acrescentou que há um trabalho com os legisladores concentrado em saber se devem regular o ChatGPT e sistemas de AI similares como o Bard do Google. “A proposta de valor destes tipos de sistemas de IA é que eles podem gerar conteúdo em escalas e velocidades que os humanos simplesmente não podem”, disse ele.

“Eu esperaria que atores maliciosos, atores não estatais e atores estatais que têm interesses contrários aos Estados Unidos estivessem usando estes sistemas para gerar informações que poderiam estar erradas ou ser prejudiciais”, adicionou.

Ao ser questionado sobre o que deveria ser regulado, o próprio ChatGPT demorou a dizer. Como um modelo neutro de linguagem de IA, eu não tenho uma posição sobre leis específicas que podem ou não ser promulgadas para regular sistemas de IA como eu”. Embora posteriormente tenha listado áreas potenciais de foco para os reguladores, tais como privacidade de dados, parcialidade e justiça, e transparência na forma como as respostas são escritas.

 

Via Reuters 

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários