Um estudo do grupo de defesa de direitos digitais Avaaz analisou centenas de publicações que continham elementos de desinformação e que foram alteradas ligeiramente para contornar o sistema de Inteligência Artificial da Facebook que monitoriza estes conteúdos. As mudanças podem ser tão subtis como mudar a cor de fundo, cortar uma imagem ou mudar a cor do texto para poder ultrapassar o sistema de forma eficaz. Os investigadores alertam que 42% dos conteúdos com desinformação que detetaram conseguiram manter-se online na plataforma e tiveram milhões de interações. As 738 publicações deviam ter recebido uma flag de ‘verificação de factos’ e removidas pelo algoritmo, mas conseguiram manter-se visíveis, com 5,6 milhões de interações e angariado 142 milhões de visualizações.
Os parceiros da Facebook que fazem verificação de factos chegam a identificar conteúdos destes e classificá-los corretamente. As mudanças subtis, no entanto, permitem manter as publicações disponíveis.
O estudo surge numa altura particularmente importante, com a pandemia do novo coronavírus ainda em vigor e com a aproximação das eleições presidenciais nos EUA. O Avaaz identificou ataques a ambos os candidatos e campanhas orquestradas que retratam Joe Biden como pedófilo e que Donald Trump chegou a roubar dinheiro de organizações de caridade infantil.
Os responsáveis do grupo Avaaz revelam especial preocupação com as páginas que já publicaram três ou mais conteúdos caracterizados como desinformação, mas que conseguem manter-se ativas, tendo sido identificadas 119 páginas nestas circunstâncias. Dados da ferramenta da Facebook CrowdTangle mostram que o número de interações nestes círculos tem vindo a aumentar com o aproximar-se das eleições presidenciais norte-americanas.
A Facebook reagiu ao estudo, informando o Vice de que a maioria das páginas e grupos identificados pelo Avaaz já foram, entretanto, penalizados com a despromoção nos Feeds de Notícias dos utilizadores, com a remoção do sistema de recomendações ou com a remoção da capacidade de serem monetizadas ou ganharem receitas publicitárias.
A empresa de Zuckerberg apelidou, no passado recente, a sua tecnologia de Inteligência Artificial como sendo das mais sofisticadas, capaz de reconhecer duplicados mesmo bastante semelhantes e aplicar automaticamente alertas nos conteúdos. No entanto, as descobertas do grupo Avaaz mostram que as alterações subtis permitem contornar os sistemas de identificação e remoção. Hany Farid, que ajudou a desenvolver a PhotoDNA, tecnologia para detetar imagens de abusos infantis, considera que “isto é patético e não surpreende. A tecnologia para detetar estas simples variações existe, mas a Facebook continua a não conseguir ou a não querer ser mais agressiva no controlo desta desinformação”.
O Avaaz revela ter partilhado as descobertas com a Facebook a 1 de outubro, mas seis dias depois a rede só tinha identificado 4% das 738 falsas publicações e removido apenas 3%. Os restantes 93% ainda estavam online, sem qualquer classificação.