Sem política e sem prevenção a possíveis danos, governo avança com inteligência artificial
Pesquisa revela que sistemas de inteligência artificial já são usadas no setor público brasileiro sem presença de panorama regulatório ou análise de impactos de danos possíveisBy - Liliane Nakagawa, 17 maio 2022 às 19:13
No Brasil, 23 ministérios e agências federais já usam sistemas de inteligência artificial (IA) e machine learning para executar funções, de acordo com uma pesquisa realizada com o setor público.
Embora ainda em fase de testes, “são os entes públicos que fazem uso desses sistemas sem a presença de um panorama regulatório em vigor, sem aferição de riscos e pouco ou nada se sabe se eles têm análise de impactos de danos possíveis”, criticou Bianca Kremer, professora de direito digital no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), durante um painel na última quinta-feira (12) promovida pela Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil (CJSUBIA).
Para os especialistas ouvidos durante as audiências públicas para discutir o impacto da IA na formulação de políticas públicas e a regulação da tecnologia, a legislação do setor terá que levar em consideração os riscos de vieses discriminatórios que possam contaminar sistemas automatizados; enquanto pesquisadores ligados à área de direitos humanos e causas sociais alertaram para o fato de que ferramentas tecnológicas não são neutras ou autônomas.
Como exemplificou a professora, que citou a pesquisa do começo desta matéria, sobre um projeto executado em uma província da Argentina em parceria com a Microsoft. O sistema usado pelo governo prometia identificar crianças com maior probabilidade de engravidarem durante a adolescência, para que elas fossem atendidas pro políticas públicas específicas. Segundo Kremer, os parâmetros como etnia, local de moradia, número de pessoas na mesma casa usados pelo sistema, perpetuavam a estigmatização sobre mulheres pobres, levando a resultados “superdimensionados” e erros estatísticos “grosseiros”.
Um entre tantos desafios da inteligência artificial
Em outro painel de audiências do dia, palestrantes apresentaram desafios para aprimorar a confiabilidade dos parâmetros dos sistemas de inteligência artificial.
Renato Monteiro, que trabalha na área de privacidade e produção de dados no Twitter, disse que o ‘direito à explicação’ em sistemas algorítmicos já é possível no Brasil pela LGPD. Entanto, ele deve ser ponderado junto a direitos de terceiros (sigilo comercial e garantia de propriedade intelectual).
Esse direito ao qual o palestrante se refere surge em situações em que o tratamento de dados pessoais do titular decorre de decisões automatizadas
Embora Monteiro tenha afirmado que fazer investimentos na explicabilidade seja importante quando o assunto envolve inteligência artificial, as aplicações mais impactantes com a tecnologia, segundo ele, podem vir da experiência das pessoas, da alteração do produto e serviço.
Em 2020, usuários do Twitter relataram que a funcionalidade de recorte automático de imagens do Twitter não era capaz de identificar e centralizar rostos de pessoas negras. Segundo Monteiro, a empresa suspendeu o programa após uma avaliação conclusiva de que havia enviesamento no algoritmo de identificação.
Via Agência Senado
Comentários