Já não é de hoje que especialistas alertam para o aprimoramento desmedido da inteligência artificial (IA), mas agora, temos gente da própria indústria alertando que algo deve ser feito para frear essas pesquisas e permitir que elas sigam de forma mais controlada.

De acordo com o Centro pela Segurança da IA (CAIS, na sigla em inglês), o avanço desenfreado dos desenvolvimentos das tecnologias baseadas em grandes modelos de linguagem (LLMs, um recurso que nos deu, entre outras coisas, o ChatGPT) nos traz um “risco de extinção comparável à guerra nuclear”.

Imagem mostra um monitor com uma caveira ao centro, segurado por cabos e simbolizando uma inteligência artificial maligna

Imagem: GrandeDuc/Shutterstock

Piadas sobre a SkyNet de “Exterminador do Futuro” à parte, a parte interessante não é a afirmação em si, mas de onde ela veio: o CAIS não é uma organização opositora à inteligência artificial – na verdade, o projeto todo visa a defesa da indústria, mas de uma forma sustentável e responsável.

Tanto é que seus signatários incluem pessoas que trabalham na própria indústria, como Sam Altman (CEO da OpenAI, dona do ChatGPT) e Demis Hassabis (CEO da DeepMind, uma subsidiária do Google, que está desenvolvendo o Bard).

Especialistas tecnológicos que advogam por um controle maior da IA não são exatamente uma novidade: Steve Wozniak, co-fundador da Apple, chegou a posicionar críticas ao formato em março – ele inclusive pediu por uma paralisação total das pesquisas de novas funções da indústria por seis meses, a fim de que restrições e contenções pudessem ser desenvolvidas e implementadas. A carta que ele assinou o vê acompanhado de outros mil profissionais do ramo.

“Os meses recentes viram laboratórios de inteligência artificial se prenderem a uma corrida sem controle pelo desenvolvimento e entrega de mentes digitais cada vez mais poderosas, as quais ninguém – nem mesmo seus criadores – podem compreender, antecipar ou controlar de forma confiável.” – Carta pela paralisação de pesquisas em IA

A mesma carta foi assinada por Elon Musk, embora o CEO do Twitter tenha aberto uma empresa de inteligência artificial na semana seguinte à veiculação do documento.

A bem da verdade, embora toda o contexto da SkyNet nos filmes – uma IA que adquire consciência autônoma e conclui que a humanidade é o problema da própria humanidade – seja algo irreal, é bem comprovado que a tecnologia pode ser mal utilizada: basta ver as controvérsias ao redor do termo “deepfake” e você tem um excelente exemplo disso.

Não precisamos lembrar também que alguns países da Europa querem bloquear o ChatGPT por questões de privacidade, nem tampouco os países do G7 que advogam pelo “uso responsável” da inteligência artificial, alinhando a tecnologia com o que chamaram de “princípios democráticos”. Em suma: muita gente está com olhos bem preocupados com esse avanço.

E aí entra o posicionamento do CAIS:

“Experts, jornalistas, criadores de políticas práticas e o público estão cada vez mais discutindo o espectro amplo dos riscos mais importantes e mais urgentes da IA. Ainda assim, pode ser difícil dar voz às preocupações sobre alguns dos problemas mais severos dos avanços da tecnologia. O nosso posicionamento busca superar esse obstáculo e abrir caminho ao debate; Ele também serve como uma abertura para a criação do conhecimento comunitário do crescente número de experts e pessoas públicas que levam a sério estes riscos.”

O texto completo – em inglês – pode ser visto no site da organização.

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários