[Entrevista] ‘O ChatGPT não ameaça empregos: os profissionais que se arriscam ao ignorá-lo’
Especialistas ouvidos pelo blog KaBuM! são favoráveis à adoção de ferramentas criativas de IA - como o ChatGPT - desde que com cautelaBy - Rafael Arbulu, 6 fevereiro 2023 às 17:37
As ferramentas criativas de inteligência artificial (IA) – ChatGPT, DALL-E 2 e tantas outras – estão por todo lugar: jornais, revistas e sites as figuram em suas manchetes, e teses e mais teses científicas sobre as suas eficácias são publicadas em canais de estudos aprofundados quase que em um ritmo diário.
Nisso tudo, um “medo” dos retratores – na falta de um termo melhor – é o de que ou essas ferramentas vão acabar minando a credibilidade de certos ramos profissionais caso seus problemas de desinformação não sejam resolvidos; ou efetivamente mandar para a rua os profissionais dessas áreas que dependem de um senso mais crítico para a execução do trabalho.
Falando ao blog KaBuM!, dois especialistas que entrevistamos discordam dessa noção, e afirmam que ferramentas como o ChatGPT oferecem tanto “risco” a esses profissionais quanto…os próprios profissionais podem minar a si próprios. Arthur Igreja, especialista em inovação tecnológica pela Georgetown University e Mestre em Gestão Empresarial pela Fundação Getulio Vargas (FGV), pensa que o real “perigo” é especialistas nessas profissões se fecharem para ferramentas que, a seu ver, trazem facilitações aos seus trabalhos.
Questionado pela nossa equipe se todo esse “furor” sobre a aplicação ser ou não justificado, Igreja foi enfático: “na minha visão, o ChatGPT talvez seja o líder nessa cobertura, nesse ganho de atenção de toda essa geração de ferramentas de IA. Esse grande movimento é, sim, justificado, pois vai muito além do ChatGPT. É algo muito representativo e transformador. Para mim, não é puro hype, longe disso”.
Inclusive, ele próprio, em seu perfil no LinkedIn, tem várias publicações recentes informando diversas evoluções sobre as ferramentas de IA voltadas ao lado mais criativo – incluindo uma que ressalta um recurso capaz de identificar textos escritos pelo ChatGPT, inventado pela OpenAI, que por sua vez é dona…do ChatGPT.
Existe uma ironia nisso, mas ela vem com um motivo: em tempos recentes, ferramentas de IA vêm sendo questionadas por sua suposta falta de credibilidade – o próprio ChatGPT, como já falamos, tem questões difíceis de serem digeridas, uma vez que há instâncias em que ele repete informações totalmente falsas e não divulga as próprias fontes.
Mais além, diversos sites famosos – alguns, como CNET e Buzzfeed, já até serviram de fonte para nós e para diversos sites de cultura tecnológica do Brasil – admitiram o uso do ChatGPT em suas matérias (no caso do CNET, não foi nem um “admitiram” mas sim um “foram pegos usando e não tiveram como negar”). Se a ferramenta é assim tão boa, por que escondê-la?
Igreja, no entanto, levanta uma outra ótica sobre isso, esperando que o ChatGPT tenha um papel ainda maior…nas questões sociopolíticas. Para ele, a IA já começa a exercer alguma influência no assunto, tal qual as redes sociais fizeram há alguns anos: “isso possivelmente está acontecendo em uma proporção muito maior do que sejamos capazes de perceber e identificar.
Se já vemos sites publicamente revelando que criam conteúdo com IA” – ele continua – “seria muito ingênuo imaginar que o mesmo não vai acontecer com conteúdos que tenham como escopo questões políticas e geopolíticas, ainda mais com a IA que não apresenta fonte e qual é o racional. Uma coisa é o Google, onde você faz uma busca e ele entrega o site como resultado. No caso do ChatGPT, ele está te dando como se fosse uma versão fechada e definitiva de algo sem mencionar a fonte. Então, é incrivelmente difícil saber como aquilo foi formado e de que maneira. E isso já está sendo usado.”
Uma aplicação cada vez mais constante vem do ambiente corporativo: não raro, empresas de vários portes vêm empregando ferramentas de IA na construção de seus canais de conteúdo – blogs que divulgam seus serviços ou expõem fatos sobre nichos de mercado para levantar discussões e gerar tráfego online. Um desses casos é o da KODO Assets, empresa do ramo da “tokenização imobiliária”, e que recentemente publicou um ebook escrito pelo ChatGPT.
De acordo com a COO, Helena Margarido, a experiência de uso da ferramenta foi bem satisfatória, dando a entender que, vinda a oportunidade, a empresa que insere elementos de blockchain à gestão de ativos imobiliários (casas, apartamentos…) poderia repetir o feito. Mais além, ela minimizou as questões de credibilidade, haja vista que tudo passou – antes e depois da redação – pelo crivo de analistas de conteúdo humanos.
“Foi tudo bem positivo. Treinamos bastante a inteligência artificial com uma série de termos e itens específicos e ela foi de grande ajuda para construção do nosso conteúdo. Não tivemos esse problema [da inconsistência de informações], já que, [em relação a] boa parte do que extraímos da IA, fomos nós mesmos quem a ensinamos. E todo o trabalho passou por avaliação humana, tanto para treinamento quanto para utilização do conteúdo final.” – Helena Margarido, COO da KODO Assets
A executiva compartilha da visão exposta por Arthur Igreja, de que a IA não deve ameaçar os profissionais das áreas criativas. Para ela, o uso dessas ferramentas traz inúmeras vantagens – sobretudo ao reduzir o volume das partes mais “mecânicas” do trabalho. É do pensamento de ambos os especialistas que isso auxilia o profissional a se concentrar – e aprimorar – a parte que requer um raciocínio mais lúdico.
“É por isso que a tarefa de revisão e a de publicação são tão importantes”, diz Igreja. “Se uma empresa está fazendo um e-book técnico e simplesmente o processa como se fosse algo embutido – tal qual uma linha de produção – temos aí o grande problema, pois ela vai ser responsável pelo conteúdo que está publicando e o fato dela não revisar e não apontar essas falhas será uma responsabilidade dela. Acredito que a questão legal vai ficar em cima da empresa que fizer isso”.
Ele ainda indica que empresas que optem por demitir funcionários em função da adoção de ferramentas como o ChatGPT são, em essência, empresas que não se importam com o conteúdo que produzem e, consequentemente, estarão mais expostas a riscos do tipo simplesmente por ausência de compromisso:
“É difícil imaginar que uma empresa assim seja um ambiente onde a pessoa poderia se desenvolver. É assim com as ferramentas que trouxeram acessibilidade para criação de desenhos e anúncios, como foi o caso do Canva: ele atende muito mais um público que não teria grana para contratar uma agência de marketing e fazer uma campanha. A pessoa vai lá e edita um template, fazendo uma arte que é minimamente aceitável para Facebook e Instagram. Com o ChatGPT acontecerá o mesmo. Quem tiver esse cisma e não ver como poderá usar a ferramenta para trabalhar em parceria, sim, terá problema.” – Arthur Igreja, especialista em Inovação e Tendências da Tecnologia pela FGV
Fato é que aplicações como o ChatGPT parecem estar criando raízes cada vez mais profundas no vasto campo que é a inteligência artificial. O volume de anúncios com “dicas de como otimizar o ChatGPT” já é uma constante bem grande nos posts patrocinados do Instagram e Twitter – alguns, inclusive, ensinam como “contornar o robô do Google, que derruba conteúdos marcados como feitos por IA”
Até hoje, não há nenhum indício de que o Google tenha algum sistema que identifique, especificamente, conteúdos gerados por IA (embora, convenhamos, é do Google que estamos falando: eles só precisam querer fazer…). Mas existe uma premissa interessante: segundo a própria empresa de Mountain View, suas políticas de detecção de spam – e nós citamos em caráter integral aqui – “o conteúdo automático com spam é criado de maneira programática sem produzir nada original nem adicionar valor suficiente. Em vez disso, ele é gerado com o objetivo principal de manipular as classificações de pesquisa, e não de ajudar os usuários.”
Em tese, ferramentas de conteúdo automatizado – o cerne do funcionamento do ChatGPT, diga-se – podem entrar nessa classificação, por ser uma ferramenta com interação humana quase mínima. Salvo por um direcionamento editorial ou outro, é a máquina quem faz o serviço.
Em um artigo publicado em seu blog pessoal, o cofundador da SEO.ai, Daniel Højris Bæk, afirma que o problema não é o Google ser contra ou a favor do uso da IA, mas sim se esse uso será útil para o usuário ou não – e como a empresa deve responder a isso:
“Essa também pode ser a razão pela qual a OpenAI e outras plataformas similares estão trabalhando proativamente em formas de permitir que o Google e outros mecanismos de busca identifiquem textos vindos ou não da IA, implementando uma espécie de ‘marca d’água’ neles.
Esse sinal secreto incorporado ao texto poderia, então, indicar a fonte [como uma ferramenta do tipo]. O motivo principal para isso não seria apenas o de marcar um texto puramente para propósitos de SEO – como se alguém estivesse usando o ChatGPT para essa finalidade – mas também para impedir a ocorrência de plágios vindos da reescrita de conteúdo ou falsidade ideológica por meio do roubo do estilo de escrita de outras pessoas.” – Daniel Højris Bæk, cofundador da SEO.ai
“SEO”, para os não iniciados, é a sigla em inglês para “Otimização Para Mecanismos de Busca”: essencialmente, uma forma técnica de se produzir conteúdo para a internet que, entre (muitas) outras coisas, visa fazer tal conteúdo aparecer em boa luz nas buscas do Google. Na prática, imagine uma notícia que todos os canais vão publicar: aquela que aparece nos primeiros resultados da busca está com uma prática de SEO mais apurada e inteligente que a de seus concorrentes – o assunto é o mesmo, mas o mais “ranqueado” da busca fez uma melhor apuração ou tem informações mais profundas, por exemplo.
As implicações do uso do ChatGPT e de ferramentas de IA mais criativas são inúmeras, e certamente vão impactar um volume muito alto de indústrias e profissionais. Até agora, os especialistas enxergam esse paradigma com bons olhos, embora todos reconheçam a necessidade da cautela.
É o tempo que vai dizer…
Comentários