De olho nas crianças que utilizam seus dispositivos, a Apple anunciou três novas medidas para reforçar o combate contra o abuso infantil.

A expectativa é que todos os recursos cheguem ainda este ano — por meio de atualizações — para o iOS 15, iPadOS 15, watchOS 8 e macOS Monterey.

O primeiro recurso será voltado para o aplicativo Mensagens: a Apple vai adicionar novas ferramentas capazes de alertar, tanto as crianças quanto seus responsáveis, em caso de envio ou recebimento de fotos sexualmente explícitas.

Ao receber este tipo de conteúdo, a foto será desfocada, impedindo que a imagem possa ser pré-visualizada (similar ao recurso presente no Facebook). Uma primeira mensagem de conteúdo sensível será enviado. Caso o usuário avance para visualizar a mídia, um segundo alerta será emitido pela Apple, informando que os responsáveis serão notificados.

Novo recurso de segurança para crianças da Apple

Segundo a empresa, recurso não vai interferir na privacidade do usuário. Divulgação: Apple

Já em casos de envio de imagens sexualmente explícitas pelas crianças, uma proteção semelhante atuará no app. Os jovens serão alertados antes da ação e os pais também vão receber uma mensagem.

De acordo com a Apple, toda essa análise dos anexos de imagem no app Mensagens será feita por machine learning, de modo a reforçar a proteção das crianças sem que a empresa tenha acesso às conversas.

Detecção de CSAM da Apple

Outro recurso anunciado foi uma ferramenta de monitoramento para mitigar a disseminação de Material de Abuso Sexual Infantil (CSAM, na sigla em inglês). A aplicação chegou a circular na internet nos últimos dias, mas ainda como rumor. Agora, a Apple acaba de confirmar o mecanismo.

Basicamente, a tecnologia vai detectar imagens CSAM armazenadas no app Fotos, do iCloud. Ao invés de digitalizar imagens na nuvem, o sistema executa a correspondência no dispositivo usando um banco de dados de hashes (sequência de bits gerada por um algoritmo) de imagem CSAM fornecidos por organizações de segurança infantil.

Funcionamento da escaneabilidade de imagens nos dispositivos iOS

Funcionamento da nova ferramenta de escaneabilidade das fotos do iCloud. Divulgação: Apple

Toda esse rastreamento será feito por meio de tecnologia. No entanto, se a conta ultrapassar um limite de conteúdos CSAM, os materiais serão interpretados manualmente pela Apple, que poderá tomar medidas diretas com autoridades policiais responsáveis.

Siri e Pesquisa

A última novidade será uma espécie de suporte para crianças e os pais: a assistente de voz da big tech e o recurso de busca vão auxiliar usuários que queiram saber como ou onde registrar uma denúncia envolvendo CSAM ou exploração infantil, por exemplo.

Novos recursos do Siri e Pesquisa

Big tech vai reforçar o suporte para casos relacionados à CSAM. Divulgação: Apple

Caso o usuário realize buscas envolvendo CSAM, as ferramentas vão alertar que “o interesse neste tópico é prejudicial e problemático”, além de fornecer recursos de parceiros para obtenção de ajuda.

Fonte: Apple

Comentários

0

Please give us your valuable comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Inscrever-se
Notificar de
0 Comentários
Feedbacks embutidos
Ver todos os comentários