No Brasil, 23 ministérios e agências federais já usam sistemas de inteligência artificial (IA) e machine learning para executar funções, de acordo com uma pesquisa realizada com o setor público.
Embora ainda em fase de testes, “são os entes públicos que fazem uso desses sistemas sem a presença de um panorama regulatório em vigor, sem aferição de riscos e pouco ou nada se sabe se eles têm análise de impactos de danos possíveis”, criticou Bianca Kremer, professora de direito digital no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), durante um painel na última quinta-feira (12) promovida pela Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre inteligência artificial no Brasil (CJSUBIA).
Para os especialistas ouvidos durante as audiências públicas para discutir o impacto da IA na formulação de políticas públicas e a regulação da tecnologia, a legislação do setor terá que levar em consideração os riscos de vieses discriminatórios que possam contaminar sistemas automatizados; enquanto pesquisadores ligados à área de direitos humanos e causas sociais alertaram para o fato de que ferramentas tecnológicas não são neutras ou autônomas.
Como exemplificou a professora, que citou a pesquisa do começo desta matéria, sobre um projeto executado em uma província da Argentina em parceria com a Microsoft. O sistema usado pelo governo prometia identificar crianças com maior probabilidade de engravidarem durante a adolescência, para que elas fossem atendidas pro políticas públicas específicas. Segundo Kremer, os parâmetros como etnia, local de moradia, número de pessoas na mesma casa usados pelo sistema, perpetuavam a estigmatização sobre mulheres pobres, levando a resultados “superdimensionados” e erros estatísticos “grosseiros”.
Um entre tantos desafios da inteligência artificial
Em outro painel de audiências do dia, palestrantes apresentaram desafios para aprimorar a confiabilidade dos parâmetros dos sistemas de inteligência artificial.
Renato Monteiro, que trabalha na área de privacidade e produção de dados no Twitter, disse que o ‘direito à explicação’ em sistemas algorítmicos já é possível no Brasil pela LGPD. Entanto, ele deve ser ponderado junto a direitos de terceiros (sigilo comercial e garantia de propriedade intelectual).
Esse direito ao qual o palestrante se refere surge em situações em que o tratamento de dados pessoais do titular decorre de decisões automatizadas
Embora Monteiro tenha afirmado que fazer investimentos na explicabilidade seja importante quando o assunto envolve inteligência artificial, as aplicações mais impactantes com a tecnologia, segundo ele, podem vir da experiência das pessoas, da alteração do produto e serviço.
Em 2020, usuários do Twitter relataram que a funcionalidade de recorte automático de imagens do Twitter não era capaz de identificar e centralizar rostos de pessoas negras. Segundo Monteiro, a empresa suspendeu o programa após uma avaliação conclusiva de que havia enviesamento no algoritmo de identificação.
Via Agência Senado