Snowden critica OpenAI e defende modelos de IA abertos para evitar controle estatal e privado
Delator e ex-agente da NSA compartilhou opiniões timidamente otimistas em relação à singularidade tecnológica e aproveitou para criticar líderes no setor com comportamento "antissocial"By - Liliane Nakagawa, 20 maio 2023 às 15:33

O que a explosão de inteligência significa para a privacidade de dados? Para o ex-NSA e denunciante do maior esquema de vigilância em massa conduzida pelos EUA, quer dizer que “precisamos declarar que os modelos devem ser abertos“.
Imagem: Rena Schild/Shutterstock.com
Edward Snowden, que compartilhou suas opiniões por videoconferência na Consensus 2023, equilibrou entre inúmeras advertências de especialistas da área sobre a concentração da tecnologia nas mãos de agentes mal-intencionados e casos de uso positivo focadas na privacidade dos cidadãos.
Cauteloso nas reflexões sobre o assunto, o atual presidente da Freedom of the Press Foundation defendeu o open source como caminho para evitar que agentes mal-intecionados — empresas privadas e agentes do governo — induzam tecnologias de inteligência artificial (IA).
Para isso, as pessoas devem lutar para que os modelos abertos de IA permaneçam abertos, disse Snowden à CoinDesk.
Snowden critica modelo fechado da OpenAI
Quando se refere ao modelo de IA aberto, Snowden dirige à crítica especificamente aos modelos emergentes de IA que estão cada vez menos abertos, ou de certa forma, que se fecharam, como é o caso da OpenAI, especificamente.
Imagem: Ascannio/Shutterstock.com
O laboratório norte-americano de investigação em inteligência artificial (IA) fundado em 2015 como organização sem fins lucrativos, iniciou a transição em 2019 para o modelo de lucro limitado, permitindo a empresa atrair investimentos de fundos de risco. A OpenAI atual consiste em duas células, a OpenAI Incorporated (OpenAI Inc.) — organização sem fins lucrativos —, e a OpenAI Limited Partnership (OpenAI LP), uma empresa subsidiária com fins lucrativos. A OpenAI Inc. é a única acionista controladora da OpenAI LP.
Essa mudança atraiu comentários de alguns pesquisadores, argumentando a OpenAI LP para o status da empresa com fins lucrativos é inconsistente com alegações da OpenAI de estar “democratizando” a IA.
Para o ex-NSA, que alertou sobre lançamentos de dispositivos como ChatGPT e outros modelos de IA cada vez mais sofisticados, isso poderia alimentar iniciativas de grandes empresas de tecnologia e do governo para invadir a privacidade dos usuários.
“As pessoas estarão levantando a bandeira vermelha do ‘comunismo de software’, no qual precisamos declarar que os modelos devem ser abertos”, disse Snowden, dirigindo-se a OpenAI.
“É uma piada de mau gosto, certo? Eles se recusaram a fornecer acesso público a seus dados de negociação, seus modelos, os pesos e assim por diante — mas são líderes no setor. Eles estão sendo recompensados. Estão sendo recompensados por um comportamento antissocial”, argumentou.
Satya Nadella em apresentação do novo Bing, mecanismo de busca integrado a um chatbot de inteligência artificial. Imagem: Dan DeLong
Implicações para a vigilância dos recentes avanços da inteligência artificial
Ao contrário dessa realidade, o norte-americano sugeriu que tais modelos poderiam impedir a vigilância do governo em vez de alimentar programas de inteligência invasivos.
“Talvez eles possam parar de espionar o público e começar a espionar para o público”, disse Snowden. “Isso seria uma boa proteção”.
‘Melhores que nós’
Atualmente, grande do treinamento de IA envolve alimentá-la com uma enorme quantidade de conteúdo online, incluindo comentários em mídias sociais, o que, segundo Snowden, “não é o ideal”.
Imagem: rawpixel.com/Freepik
Isso porque a forma como a tecnologia é usada se resume à maneira como os pesquisadores treinam a IA.
“Eles estão treinando [modelos de IA] em tópicos do Reddit”, disse o ex-sysadmin. “É como o equivalente na Internet aos comentários do YouTube. No entanto, você quer criar algo decente, bom, que seja criativo e útil.”
Durante a conversa com Ben Goertzel, cientista cognitivo que trabalha para democratizar o desenvolvimento da IA, ele também observou que os métodos de treinamento atuais giram em torno de ensinar esses modelos a “pensar como nós”, o que poderia limitar o potencial da tecnologia para melhorar a humanidade.
“Assim como acontece com as crianças, não precisamos que as máquinas sejam como nós”, disse Snowden. “Precisamos que elas sejam melhores do que nós. E se elas não forem melhores do que nós, fizemos um péssimo trabalho.”
Comentários