Apple pode ter ferramenta que detecta abuso infantil em fotos do iOS
By - Marcelo Rodrigues, 5 agosto 2021 às 11:15
O uso de recursos de inteligência artificial nos aplicativos de fotos dos celulares tem permitido categorizar viagens, procurar palavras específicas em imagens e até procurar aquele clique bacana do seu pet. Parece que a Apple, no entanto, que usar a tecnologia para enfrentar um problema do mundo real: o abuso infantil.
De acordo com um especialista em segurança, a fabricante dos iPhones deve revelar em breve uma ferramenta de identificação integrada a aparelhos iOS capaz de detectar fotografias de crianças sendo molestadas.
Apple no controle?
Quem compartilha a informação – ainda não oficializada pela Apple – é Matthew Green, criptógrafo e professor associado no Johns Hopkins Information Security Institute. Ele teria ouvido de múltiplas fontes que a novidade é real e pode ser anunciada ainda esta semana.
A ideia é que todo o processo de monitoramente e análise de imagens seja feito localmente, no próprio iPhone, utilizando uma base de confiança fornecida pela empresa e recursos de hashing de fotos para identificar possíveis casos de abuso sexual contra crianças. Se uma imagem assim for encontrada pela ferramenta, ela passa para uma revisão humana.
Claro que a iniciativa em si é bastante nobre e combate um dos crimes mais violentos da nossa sociedade. Green, no entanto, argumenta que a forma como a Apple está fazendo isso faz com que a novidade seja “uma péssima ideia”. Fora toda a questão de privacidade dos usuários, que é uma bandeira da própria Apple, o uso de hash não é 100% à prova de falhas e pode levar a falsos positivos.
Além disso, o especialista acredita que a funcionalidade pode ser expandida para criar um recurso de vigilância silencioso e bastante perigoso. Regimes autoritários, por exemplo, poderiam recorrer à tecnologia para suprimir opositores ou buscar elementos específicos em fotos, mesmo que essas pessoas não tenham cometido crime algum.
Fonte: 9to5Mac
Comentários