A inteligência artificial traz um risco de extinção ‘comparável à guerra nuclear’, diz organização do setor
Para o Centro pela Segurança da Inteligência Artificial, mitigar a tecnologia baseada em grandes modelos de linguagem deve ser prioridadeBy - Rafael Arbulu, 11 junho 2023 às 11:00
Já não é de hoje que especialistas alertam para o aprimoramento desmedido da inteligência artificial (IA), mas agora, temos gente da própria indústria alertando que algo deve ser feito para frear essas pesquisas e permitir que elas sigam de forma mais controlada.
De acordo com o Centro pela Segurança da IA (CAIS, na sigla em inglês), o avanço desenfreado dos desenvolvimentos das tecnologias baseadas em grandes modelos de linguagem (LLMs, um recurso que nos deu, entre outras coisas, o ChatGPT) nos traz um “risco de extinção comparável à guerra nuclear”.
Piadas sobre a SkyNet de “Exterminador do Futuro” à parte, a parte interessante não é a afirmação em si, mas de onde ela veio: o CAIS não é uma organização opositora à inteligência artificial – na verdade, o projeto todo visa a defesa da indústria, mas de uma forma sustentável e responsável.
Tanto é que seus signatários incluem pessoas que trabalham na própria indústria, como Sam Altman (CEO da OpenAI, dona do ChatGPT) e Demis Hassabis (CEO da DeepMind, uma subsidiária do Google, que está desenvolvendo o Bard).
Especialistas tecnológicos que advogam por um controle maior da IA não são exatamente uma novidade: Steve Wozniak, co-fundador da Apple, chegou a posicionar críticas ao formato em março – ele inclusive pediu por uma paralisação total das pesquisas de novas funções da indústria por seis meses, a fim de que restrições e contenções pudessem ser desenvolvidas e implementadas. A carta que ele assinou o vê acompanhado de outros mil profissionais do ramo.
“Os meses recentes viram laboratórios de inteligência artificial se prenderem a uma corrida sem controle pelo desenvolvimento e entrega de mentes digitais cada vez mais poderosas, as quais ninguém – nem mesmo seus criadores – podem compreender, antecipar ou controlar de forma confiável.” – Carta pela paralisação de pesquisas em IA
A mesma carta foi assinada por Elon Musk, embora o CEO do Twitter tenha aberto uma empresa de inteligência artificial na semana seguinte à veiculação do documento.
A bem da verdade, embora toda o contexto da SkyNet nos filmes – uma IA que adquire consciência autônoma e conclui que a humanidade é o problema da própria humanidade – seja algo irreal, é bem comprovado que a tecnologia pode ser mal utilizada: basta ver as controvérsias ao redor do termo “deepfake” e você tem um excelente exemplo disso.
Não precisamos lembrar também que alguns países da Europa querem bloquear o ChatGPT por questões de privacidade, nem tampouco os países do G7 que advogam pelo “uso responsável” da inteligência artificial, alinhando a tecnologia com o que chamaram de “princípios democráticos”. Em suma: muita gente está com olhos bem preocupados com esse avanço.
E aí entra o posicionamento do CAIS:
“Experts, jornalistas, criadores de políticas práticas e o público estão cada vez mais discutindo o espectro amplo dos riscos mais importantes e mais urgentes da IA. Ainda assim, pode ser difícil dar voz às preocupações sobre alguns dos problemas mais severos dos avanços da tecnologia. O nosso posicionamento busca superar esse obstáculo e abrir caminho ao debate; Ele também serve como uma abertura para a criação do conhecimento comunitário do crescente número de experts e pessoas públicas que levam a sério estes riscos.”
O texto completo – em inglês – pode ser visto no site da organização.
Comentários