Um novo estudo levado a cabo pela fundação Molly Rose sugere que algumas das maiores plataformas de redes sociais – como o Instagram, Facebook, X e Snapchat – não estão a conseguir detetar e remover conteúdos perigosos sobre suicídio e automutilação.
A instituição, criada em 2017 por Ian Russell, descobriu que, de mais de 12 milhões de decisões de moderação de conteúdos tomadas por seis das maiores plataformas, mais de 95% foram detetadas e removidas por apenas dois sítios – Pinterest e Tik Tok. As outras quatro plataformas que constam do relatório são o Facebook, o Instagram, o Snapchat e o X, antigo Twitter.
Segundo a fundação, a ação destas quatro plataformas na deteção e eliminação deste tipo de conteúdos mostrou-se “inconsistente, desigual e inadequada para o objetivo”. Os dados da investigação revelaram que as redes sociais Instagram e o Facebook – ambos parte da empresa Meta – foram responsáveis pela sinalização de apenas 1% de todos os conteúdos de suicídio e automutilação detetados pelos principais sítios estudados. Já o X – anterior Twitter – de Elon Musk, foi responsável por apenas uma em cada 700 decisões de conteúdo, o correspondente a 0,14%, e o Snapchat por 0,04%.
Já as aplicações Pinterest e Tik Tok, mostraram um melhor desempenho. A plataforma de partilha de fotografia foi responsável por 74% – o que equivale a cerca de nove milhões – das decisões de moderação, e a app de vídeo por 24% – cerca de 2,9 milhões.
“A moderação de conteúdos é uma parte extremamente importante da proteção dos utilizadores contra experiências prejudiciais ou inadequadas para a idade. É fundamental que os reguladores compreendam que a moderação não é apenas um meio de detetar conteúdos nocivos, mas que, quando é implementada eficazmente, também pode atenuar e impedir ativamente a publicação de material nocivo”, pode ler-se no relatório.
O estudo baseou-se nas decisões de moderação de conteúdos tomadas na União Europeia e que devem ser tornadas públicas. No relatório, a fundação mostrou que a maioria das redes sociais não detetam regularmente conteúdos nocivos nas partes de maior risco dos seus serviços. Por exemplo, apenas uma em cada 50 mensagens de suicídio e automutilação detetadas pelo Instagram integravam vídeos, apesar de a funcionalidade de vídeo curto – conhecida como Reels – representar metade de todo o tempo passado na aplicação.
O estudo acusou também os sites de não conseguirem implementar eficazmente as suas próprias regras de utilização, ao notar que, embora o TikTok tenha detetado milhões de publicações sobre suicídio e automutilação, acabou por suspender, apenas, duas contas.
A instituição notou ainda o efeito perigoso que as redes sociais podem ter na saúde mental dos utilizadores, especialmente os mais novos . “Os pais de todo o país ficarão chocados com o facto de empresas como o Instagram e o Facebook prometerem palavras calorosas, mas continuarem a expor as crianças a danos inerentemente evitáveis”, defendeu Russell.
A Fundação Molly Rose foi criada em memória da filha de Russell que pôs termo à vida aos 14 anos, em novembro de 2017. “Quase sete anos após a morte de Molly, é chocante ver que a maioria das grandes empresas de tecnologia continuam de braços cruzados e opta pela inação em vez de salvar vidas jovens”, referiu o presidente da empresa.
Em resposta à ao estudo, a Meta defendeu que o relatório não reflete todos os esforços realizados para garantir a utilização segura das plataformas. “Os conteúdos que incentivam o suicídio e a automutilação violam as nossas regras. Não acreditamos que as estatísticas deste relatório reflitam os nossos esforços. Só no ano passado, removemos 50,6 milhões de conteúdos deste tipo no Facebook e no Instagram em todo o mundo, e 99% foram removidos antes de nos serem comunicados “, referiu um porta-voz do Meta.
Já a plataforma TikTok e X ainda não se pronunciaram sobre o assunto.