‘Um pouco assustado’, admite CEO da OpenAI sobre riscos que modelos de linguagem representam à sociedade
Sam Altman reconhece que “a maior tecnologia que a humanidade já desenvolveu” representa perigos reaisBy - Liliane Nakagawa, 21 março 2023 às 17:09
O CEO da OpenAI, empresa por trás da criação da IA conversacional ChatGPT, admitiu em uma entrevista recente que ele está “um pouco assustado” com o poder e risco que modelos de linguagem representam à sociedade.
Embora acredite que possa ser “a maior tecnologia que a humanidade já desenvolveu” para melhorar o cotidiano das pessoas, ele reconhece que ela representa perigos reais. “Nós temos tido cuidado aqui”, assegurou Altman em entrevista à ABCNews. “Acho que as pessoas deveriam estar felizes por termos um pouco de medo disso”.
Sem compartilhar o medo comum da ficção científica, ele aponta que tais perigos são acrescidos às ações humanas. “Haverá outras pessoas que não colocarão alguns dos limites de segurança que nós colocamos”, acrescentou ele. “A sociedade, eu acho, tem um tempo limitado para descobrir como reagir a isso, como regular isso, como lidar com isso”.
Ao comentar sobre uma fala do presidente russo Vladimir Putin de 2017, sobre a possibilidade de “governar o mundo” aquele que liderasse a corrida de IA, Altman admite ser uma declaração arrepiante. “O que eu espero, ao invés disso, é que desenvolvamos sucessivamente mais e mais sistemas poderosos que todos nós possamos usar de diferentes maneiras para integrá-los em nossa vida diária, na economia, e nos tornarmos um amplificador da vontade humana”.
OpenAI: alertas sobre desinformação e atitude questionável
Mesmo sob o cuidado assegurado por Altman, as possíveis implementações perigosas de IA ainda o mantém acordado à noite. “Estou particularmente preocupado que estes modelos possam ser usados para desinformação em larga escala”, disse Altman. “Agora que eles estão ficando melhores em escrever código de computador, [eles] poderiam ser usados para ciberataques ofensivos”.
Especificamente sobre a desinformação, Altman diz que o programa pode dar aos usuários informações factualmente imprecisas. “O que eu mais tento advertir as pessoas é o que chamamos de ‘problema das alucinações'”, disse. “O modelo irá afirmar com confiança as coisas totalmente inventados como se fossem fatos”.
De acordo com a OpenAI, o modelo apresenta essa questão, em parte, porque usa o raciocínio dedutivo em vez da memorização. “Uma das maiores diferenças que vimos do GPT-3.5 ao GPT-4 foi esta capacidade emergente de raciocinar melhor”, disse Mira Murati, diretora de tecnologia da starup. “O objetivo é prever a próxima palavra – e com isso, estamos vendo que existe esta compreensão da linguagem”, acrescentou. “Queremos que estes modelos vejam e entendam o mundo mais como nós o entendemos”.
Altman ressalta que os modelos criados focam no “mecanismo de raciocínio, não um banco de dados de fatos”. “Eles também podem agir como um banco de dados de fatos, mas isso não é realmente o que eles têm de especial — o que queremos que eles façam é algo mais próximo da capacidade de raciocinar, não de memorizar”.
Eles esperam que “o modelo se torne este mecanismo de raciocínio ao longo do tempo”, compartilha Altman, capacitando-o a usar a internet o próprio raciocínio dedutivo para separar os fatos da ficção.
De acordo com a OpenAI, o GPT-4 tem 40% mais chances de produzir informações precisas em relação à versão anterior. Ainda assim, Altman disse que confiar no sistema como uma fonte primária de informações precisas “é algo para o qual você não deve usá-lo” e incentiva os usuários a verificarem novamente os resultados do programa.
Embora a mensagem tenha sido repetida em outras ocasiões, alertando sobre o perigo da desinformação, o comportamento da startup muitas vezes confunde. A própria OpenAI alega que a tecnologia é perigosa, no entanto, disponibiliza a ferramenta para qualquer usuário que esteja disposto a pagar por ela. E mesmo com o cuidado que ela assegura ter, o próprio CEO reconhece que dos muitos perigos que o mantém acordado à noite serão colocados à prova e com tempo limitado para a sociedade reagir, regular e lidar com tais problemas.
Ao lançar o GPT-4, a OpenAI também foi criticada por manter em segredo os detalhes do último modelo de linguagem, como tamanho, arquitetura, dados de treinamento e outras informações.
Com informações ABCNews e The Register
Comentários