Snowden critica OpenAI e defende modelos de IA abertos para evitar controle estatal e privado
Delator e ex-agente da NSA compartilhou opiniões timidamente otimistas em relação à singularidade tecnológica e aproveitou para criticar líderes no setor com comportamento "antissocial"By - Liliane Nakagawa, 20 maio 2023 às 15:33
O que a explosão de inteligência significa para a privacidade de dados? Para o ex-NSA e denunciante do maior esquema de vigilância em massa conduzida pelos EUA, quer dizer que “precisamos declarar que os modelos devem ser abertos“.
Edward Snowden, que compartilhou suas opiniões por videoconferência na Consensus 2023, equilibrou entre inúmeras advertências de especialistas da área sobre a concentração da tecnologia nas mãos de agentes mal-intencionados e casos de uso positivo focadas na privacidade dos cidadãos.
Cauteloso nas reflexões sobre o assunto, o atual presidente da Freedom of the Press Foundation defendeu o open source como caminho para evitar que agentes mal-intecionados — empresas privadas e agentes do governo — induzam tecnologias de inteligência artificial (IA).
Para isso, as pessoas devem lutar para que os modelos abertos de IA permaneçam abertos, disse Snowden à CoinDesk.
Snowden critica modelo fechado da OpenAI
Quando se refere ao modelo de IA aberto, Snowden dirige à crítica especificamente aos modelos emergentes de IA que estão cada vez menos abertos, ou de certa forma, que se fecharam, como é o caso da OpenAI, especificamente.
O laboratório norte-americano de investigação em inteligência artificial (IA) fundado em 2015 como organização sem fins lucrativos, iniciou a transição em 2019 para o modelo de lucro limitado, permitindo a empresa atrair investimentos de fundos de risco. A OpenAI atual consiste em duas células, a OpenAI Incorporated (OpenAI Inc.) — organização sem fins lucrativos —, e a OpenAI Limited Partnership (OpenAI LP), uma empresa subsidiária com fins lucrativos. A OpenAI Inc. é a única acionista controladora da OpenAI LP.
Essa mudança atraiu comentários de alguns pesquisadores, argumentando a OpenAI LP para o status da empresa com fins lucrativos é inconsistente com alegações da OpenAI de estar “democratizando” a IA.
Para o ex-NSA, que alertou sobre lançamentos de dispositivos como ChatGPT e outros modelos de IA cada vez mais sofisticados, isso poderia alimentar iniciativas de grandes empresas de tecnologia e do governo para invadir a privacidade dos usuários.
“As pessoas estarão levantando a bandeira vermelha do ‘comunismo de software’, no qual precisamos declarar que os modelos devem ser abertos”, disse Snowden, dirigindo-se a OpenAI.
“É uma piada de mau gosto, certo? Eles se recusaram a fornecer acesso público a seus dados de negociação, seus modelos, os pesos e assim por diante — mas são líderes no setor. Eles estão sendo recompensados. Estão sendo recompensados por um comportamento antissocial”, argumentou.
Implicações para a vigilância dos recentes avanços da inteligência artificial
Ao contrário dessa realidade, o norte-americano sugeriu que tais modelos poderiam impedir a vigilância do governo em vez de alimentar programas de inteligência invasivos.
“Talvez eles possam parar de espionar o público e começar a espionar para o público”, disse Snowden. “Isso seria uma boa proteção”.
‘Melhores que nós’
Atualmente, grande do treinamento de IA envolve alimentá-la com uma enorme quantidade de conteúdo online, incluindo comentários em mídias sociais, o que, segundo Snowden, “não é o ideal”.
Isso porque a forma como a tecnologia é usada se resume à maneira como os pesquisadores treinam a IA.
“Eles estão treinando [modelos de IA] em tópicos do Reddit”, disse o ex-sysadmin. “É como o equivalente na Internet aos comentários do YouTube. No entanto, você quer criar algo decente, bom, que seja criativo e útil.”
Durante a conversa com Ben Goertzel, cientista cognitivo que trabalha para democratizar o desenvolvimento da IA, ele também observou que os métodos de treinamento atuais giram em torno de ensinar esses modelos a “pensar como nós”, o que poderia limitar o potencial da tecnologia para melhorar a humanidade.
“Assim como acontece com as crianças, não precisamos que as máquinas sejam como nós”, disse Snowden. “Precisamos que elas sejam melhores do que nós. E se elas não forem melhores do que nós, fizemos um péssimo trabalho.”
Comentários