A Apple está a trabalhar numa nova funcionalidade capaz de identificar conteúdos de abuso infantil, tais como pornografia infantil, armazenados nos iPhone, revela a publicação 9to5Mac.
Segundo a notícia, a tecnológica vai fazer a análise das imagens diretamente nos dispositivos dos utilizadores. Para isso vai recorrer a uma função de dispersão criptográfica (hash). Na prática, este sistema transforma um imagem numa série de caracteres que funcionam como uma espécie de bilhete de identidade para aquela imagem. Com o objetivo de preservar a privacidade dos utilizadores, não será necessário uma transferência de dados para a cloud.
Durante o processo de análise, o sistema procura fotos (através do tal bilhete de identidade) no iPhone do utilizador que correspondam a determinadas imagens (base de bilhetes de identidade) de conteúdo ilegal conhecido pela Apple. Quaisquer correspondências deverão ser relatadas para análise humana.
Segundo vários tweets de Matthew Green, criptógrafo e especialista em segurança informática, a implementação de algoritmos de hashing podem gerar falsos positivos. “Estas ferramentas vão permitir à Apple examinar as fotos no iPhone à procura de fotos que correspondam a um hash específico e comunicá-las aos servidores da empresa”, escreveu Matthew num tweet.
These tools will allow Apple to scan your iPhone photos for photos that match a specific perceptual hash, and report them to Apple servers if too many appear.
— Matthew Green (@matthew_d_green) August 5, 2021
Até ao momento a Apple não confirmou oficialmente nenhumas informações sobre esta iniciativa.