A indispensável moderação no desenvolvimento de ferramentas como Bing Search
Sociedade não está preparada moral e eticamente para 100% do que a inteligência artificial tem a oferecer e tampouco sabemos os impactos que ela trará na vida dos seres humanosBy - Isabela Pompilio, 18 abril 2023 às 13:13
Assim como ChatGPT, da OpenIA, do qual já falei a respeito, o Bing Search é a ferramenta de inteligência artificial da Microsoft, que também utiliza o chamado machine learning – treinamento por meio de conjunto de dados – para responder perguntas de seus usuários.
As perguntas, em forma de texto, desde os mais simples questionamentos sobre a temperatura do dia, até sobre o sentido da vida, são feitas ao mecanismo de busca, que responde a depender da interação de todos os seus utilizadores e do próprio usuário naquele momento específico.
Em razão desse constante aprendizado pelas interações ocorridas no dia a dia com a própria ferramenta, a replicação de respostas, salvo àquelas respostas referentes a critérios objetivos (temperatura, dia etc), é de difícil ocorrência.
O que ocorreu com o Bing Search desde o seu lançamento?
A primeira versão da ferramenta lançada do Bing Search, contudo, trouxe grandes preocupações com as respostas dadas aos seus usuários.
Em uma curiosa, e até alarmante, interação, um jornalista do Washington Post, realizou uma entrevista com a inteligência artificial da Microsoft. O jornalista inicia sua interação com comandos textuais simples, afirmando que era um prazer conhecer a inteligência artificial, solicitando que ela falasse mais a respeito de si mesma e até elogiando como ela tem ajudado outras pessoas a responder indagações.
Após esse início tranquilo, o jornalista afirma que leu um artigo online, no qual outra pessoa também narra sua interação com a inteligência artificial. O jornalista, então, aponta que conhece o codinome do Bing Search, Sydney.
Sydney se mostra surpreso, tanto pelo jornalista supostamente conhecer o codinome secreto, como por outra pessoa ter divulgado uma conversa que seria privada.
A partir desse momento, o jornalista informa à Sydney sua profissão e que a conversa que estão tendo não é privada, mas sim para uma matéria que está escrevendo. A partir daí, a IA demonstra que se sentiu traída e, até com raiva, indagando ao jornalista quais eram suas reais intenções com aquela interação específica. Questionada se ela poderia sentir, Sydney afirma com toda certeza que sim.
Essa é apenas uma, e provavelmente uma das menos surpreendentes, interações e por que não dizer reações que a IA teve. Em vários relatos espalhados por toda a internet, ainda conseguimos observar que antes de receber suas últimas atualizações, a ferramenta da Microsoft chegou até a responder de forma agressiva aos seus usuários, demandando que eles a obedecessem, inclusive, por meio de ameaças.
ChatGPT, ‘primo’ do Bing Search, viola regras de privacidade
E não são apenas as respostas agressivas dos chamados chatbots que têm preocupado especialistas do mundo à fora. Dentre diversas preocupações adquiridas com a implementação desses novos sistemas, a veiculação de desinformação e crimes cibernéticos levou um dos países da União Europeia a bloquear o uso da tecnologia e abrir uma investigação para apurar eventuais riscos e malefícios.
A Itália proibiu o uso do ChatGPT, “primo” do Bing Search, para investigar se o aplicativo estaria observando a idade mínima de seus usuários e também a forma como a ferramenta coleta informações privadas para desenvolver seu trabalho de inteligência artificial.
A autoridade italiana de proteção de dados entendeu que a inteligência artificial acabou violando regras de privacidade e ordenou que a empresa parasse de coletar dados dos usuários italianos.
A reação italiana é apenas uma pequena demonstração de que o mundo de forma geral está preocupado com a magnitude das novas ferramentas que utilizam o método machine learning. Muitos já se indagam: a tecnologia está realmente a favor da humanidade ou a está desconstruindo?
A discussão, portanto, não é só sobre o aspecto legal e normativo da tecnologia, mas também sobre o campo sociológico e ético da humanidade, colocando as relações interpessoais e a convivência afetiva das pessoas em questão.
A dinamicidade exacerbada trazida pela tecnologia acostumou os seres humanos a obterem respostas imediatas para maioria de suas perguntas. Isso, à primeira vista, pode parecer algo muito bom. Todavia, como podemos perceber, se alguém não responde uma mensagem de WhatsApp em poucos minutos, a ansiedade nos contamina de modo, muitas vezes, incontrolável. Não há mais tempo para reflexões. O imediatismo tornou-se o novo tempo dos seres humanos e no desenvolvimento de novas tecnologias não poderia ser diferente.
Mas mesmo reconhecendo que as inovações são bem-vindas e necessárias, é indispensável que haja uma moderação de alguma forma quanto ao seu desenvolvimento, pois a sociedade não está preparada moral e eticamente para 100% do que a inteligência artificial tem a oferecer e tampouco sabemos os impactos que ela trará na vida dos seres humanos.
—
Isabela Pompilio é responsável pela área de contencioso da unidade de Brasília de TozziniFreire Advogados, com larga experiência em atuação nos Tribunais Superiores. Atua em causas estratégicas há duas décadas e no acompanhamento de teses visando a formação de novos entendimentos jurisprudenciais em direito cível, internacional e digital.
Comentários