A Facebook revelou que os moderadores da rede social removeram 8,7 milhões de imagens que envolviam nudez de crianças no último trimestre. Para conseguir chegar a este número, a empresa contou com a ajuda de um software que identifica automaticamente este género de fotos, revela a Reuters.
A ferramenta de machine learning identifica imagens que contêm tanto nudez como crianças e começou a ser usada pelo Facebook no ano passado, embora a sua utilização não tivesse ainda sido divulgada. O objetivo da rede social é ser mais eficaz a banir fotos que mostrem menores num contexto sexual.
Refira-se que a ferramenta ajuda a identificar as imagens potencialmente impróprias, mas que a palavra final sobre a remoção cabe a um moderador do Facebook. Os utilizadores têm a possibilidade de contestar sempre que considerarem que a remoção do conteúdo que partilharam não faz sentido.
Antes da entrada em cena deste software, o Facebook estava dependente das queixas de utilizadores ou dos filtros de nudez para identificar imagens comprometedoras de crianças, sendo que outro sistema bloqueia automaticamente pornografia infantil que já tivesse sido reportada às autoridades.
A empresa está agora a estudar a possibilidade de vir a aplicar a nova tecnologia ao Instagram.