No Brasil, 23 ministérios e agências federais já usam sistemas de inteligência artificial (IA) e machine learning para executar funções, de acordo com uma pesquisa realizada com o setor público.

Embora ainda em fase de testes, “são os entes públicos que fazem uso desses sistemas sem a presença de um panorama regulatório em vigor, sem aferição de riscos e pouco ou nada se sabe se eles têm análise de impactos de danos possíveis”, criticou Bianca Kremer, professora de direito digital no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), durante um painel na última quinta-feira (12) promovida pela Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil (CJSUBIA).

Sem política e sem prevenção a possíveis danos, governo avança com inteligência artificial

Em pronunciamento via videoconferência, representante do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e Coding Rights, Bianca Kremer. Imagem: Waldemir Barreto/Agência Senado

Para os especialistas ouvidos durante as audiências públicas para discutir o impacto da IA na formulação de políticas públicas e a regulação da tecnologia, a legislação do setor terá que levar em consideração os riscos de vieses discriminatórios que possam contaminar sistemas automatizados; enquanto pesquisadores ligados à área de direitos humanos e causas sociais alertaram para o fato de que ferramentas tecnológicas não são neutras ou autônomas.

Como exemplificou a professora, que citou a pesquisa do começo desta matéria, sobre um projeto executado em uma província da Argentina em parceria com a Microsoft. O sistema usado pelo governo prometia identificar crianças com maior probabilidade de engravidarem durante a  adolescência, para que elas fossem atendidas pro políticas públicas específicas. Segundo Kremer, os parâmetros como etnia, local de moradia, número de pessoas na mesma casa usados pelo sistema, perpetuavam a estigmatização sobre mulheres pobres, levando a resultados “superdimensionados” e erros estatísticos “grosseiros”.

Sem política e sem prevenção a possíveis danos, governo avança com IA

Juristas ouvem estudiosos e profissionais de Inteligência Artificial para elaborar projeto de regulação da atividade. Imagem: Edilson Rodrigues/Agência Senado

Um entre tantos desafios da inteligência artificial

Em outro painel de audiências do dia, palestrantes apresentaram desafios para aprimorar a confiabilidade dos parâmetros dos sistemas de inteligência artificial.

Renato Monteiro, que trabalha na área de privacidade e produção de dados no Twitter, disse que o ‘direito à explicação’ em sistemas algorítmicos já é possível no Brasil pela LGPD. Entanto, ele deve ser ponderado junto a direitos de terceiros (sigilo comercial e garantia de propriedade intelectual).

Esse direito ao qual o palestrante se refere surge em situações em que o tratamento de dados pessoais do titular decorre de decisões automatizadas

Embora Monteiro tenha afirmado que fazer investimentos na explicabilidade seja importante quando o assunto envolve inteligência artificial, as aplicações mais impactantes com a tecnologia, segundo ele, podem vir da experiência das pessoas, da alteração do produto e serviço.

Em 2020, usuários do Twitter relataram que a funcionalidade de recorte automático de imagens do Twitter não era capaz de identificar e centralizar rostos de pessoas negras. Segundo Monteiro, a empresa suspendeu o programa após uma avaliação conclusiva de que havia enviesamento no algoritmo de identificação.

 

Via Agência Senado

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários