Reguladores da UE alertam para preconceito em IAs usadas para prever crimes e moderar discursos
"Precisamos de um sistema para avaliar e mitigar preconceitos antes e durante o uso de algoritmos para proteger as pessoas contra a discriminação", disse o diretor da Agência de Direitos Fundamentais da UEBy - Liliane Nakagawa, 13 dezembro 2022 às 11:20
As aplicações que usam inteligência artificial (IA) para prever crimes e moderar o discurso de ódio online devem estar livres de preconceitos para evitar discriminação, de acordo com uma afirmação dos reguladores de direitos da UE.
O alerta está em um relatório divulgado na quinta-feira (8) e é baseado em estudo de 2021. De acordo com a Agência de Direitos Fundamentais da UE (FRA), os algoritmos baseados em dados de má qualidade poderiam prejudicar a vida das pessoas.
O estudo no qual o relatório se baseia tem como pano de fundo a proposta da Lei de Inteligência Artificial da Comissão Europeia, apresentada em 21 de abril de 2021, que na época recebeu críticas de legisladores e grupos de consumidores europeus por não tratar completamente dos riscos possíveis à violação de direitos fundamentais causados pelo uso de sistemas equipados com a tecnologia.
“Precisamos de um sistema para avaliar e mitigar preconceitos antes e durante o uso de algoritmos para proteger as pessoas contra a discriminação”, disse Michael O’Flaherty, diretor da FRA.
IAs para previsão: exagero e alimentada por ódio da web
Um dos alertas se refere à detecção de crimes. De acordo com a FRA, a identificação varia e pode afetar os dados, já que certos crimes são fáceis de detectar enquanto as previsões se concentram muito em crimes de fácil registro pela polícia. A partir disso, alguns grupos demográficos podem estar mais frequentemente ligados a “crimes mais simples”, o que pode levar a um preconceito na aplicação da lei.
Quanto à moderação do discurso ofensivo, a Agência disse ter encontrado algoritmos para detecção automática de falas de ódio não confiáveis, visto que a ferramenta marcou termos não ofensivos em inglês, referindo-se a “muçulmano”, “gay” ou “judeu” como ofensivos.
Em idiomas como alemão e italiano, que usam substantivos de gênero, alguns algoritmos julgaram a versão feminina de um termo mais afrontoso que a contraparte masculina, ou vice versa.
Segundo a FRA, as previsões dos algoritmos tendem a reagir de forma exagerada, já que estão ligadas ao ódio online de seus conjuntos de dados de texto, base da qual essas IAs se alimentam.
Via Reuters
Comentários