Apple anuncia novos recursos para combater o abuso infantil
By - Igor Shimabukuro, 6 agosto 2021 às 11:20
De olho nas crianças que utilizam seus dispositivos, a Apple anunciou três novas medidas para reforçar o combate contra o abuso infantil.
A expectativa é que todos os recursos cheguem ainda este ano — por meio de atualizações — para o iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.
O primeiro recurso será voltado para o aplicativo Mensagens: a Apple vai adicionar novas ferramentas capazes de alertar, tanto as crianças quanto seus responsáveis, em caso de envio ou recebimento de fotos sexualmente explícitas.
Ao receber este tipo de conteúdo, a foto será desfocada, impedindo que a imagem possa ser pré-visualizada (similar ao recurso presente no Facebook). Uma primeira mensagem de conteúdo sensível será enviado. Caso o usuário avance para visualizar a mídia, um segundo alerta será emitido pela Apple, informando que os responsáveis serão notificados.
Já em casos de envio de imagens sexualmente explícitas pelas crianças, uma proteção semelhante atuará no app. Os jovens serão alertados antes da ação e os pais também vão receber uma mensagem.
De acordo com a Apple, toda essa análise dos anexos de imagem no app Mensagens será feita por machine learning, de modo a reforçar a proteção das crianças sem que a empresa tenha acesso às conversas.
Detecção de CSAM da Apple
Outro recurso anunciado foi uma ferramenta de monitoramento para mitigar a disseminação de Material de Abuso Sexual Infantil (CSAM, na sigla em inglês). A aplicação chegou a circular na internet nos últimos dias, mas ainda como rumor. Agora, a Apple acaba de confirmar o mecanismo.
Basicamente, a tecnologia vai detectar imagens CSAM armazenadas no app Fotos, do iCloud. Ao invés de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes (sequência de bits gerada por um algoritmo) de imagem CSAM fornecidos por organizações de segurança infantil.
Toda esse rastreamento será feito por meio de tecnologia. No entanto, se a conta ultrapassar um limite de conteúdos CSAM, os materiais serão interpretados manualmente pela Apple, que poderá tomar medidas diretas com autoridades policiais responsáveis.
Siri e Pesquisa
A última novidade será uma espécie de suporte para crianças e os pais: a assistente de voz da big tech e o recurso de busca vão auxiliar usuários que queiram saber como ou onde registrar uma denúncia envolvendo CSAM ou exploração infantil, por exemplo.
Caso o usuário realize buscas envolvendo CSAM, as ferramentas vão alertar que “o interesse neste tópico é prejudicial e problemático”, além de fornecer recursos de parceiros para obtenção de ajuda.
Fonte: Apple
Comentários