Uma nova investigação, conduzida pela organização sem fins lucrativos de origem britânica, Center for Countering Digital Hate (CCDH), concluiu que os algoritmos de recomendação do TikTok promovem conteúdos de automutilação e transtorno alimentar minutos depois de haver demonstração de interesse por esses tópicos pelos utilizadores.
São resultados preocupantes, que o CCDH carateriza como “pesadelos de todos os pais”. “Os feeds dos jovens são bombardeados com conteúdo prejudicial e angustiante que pode ter um impacto cumulativo significativo na sua compreensão do mundo e na sua saúde física e mental”, afirma Imran Ahmed, diretor executivo da CCDH, citado pelo The Guardian.
A organização descobriu que esta rede social, com cerca de mil milhões de utilizadores ativos todos os meses, dos quais 47,4% têm entre 10 e 29 anos nos EUA, promove, aos interessados, conteúdos que incluem dietas extremamente restritas, que incentivam a automutilação e que romantizam o suicídio – e isso acontece mesmo com utilizadores identificados como menores de 18 anos.
Para a realização do estudo, foram criadas contas no TikTok, registadas como sendo de utilizadores de 13 anos (idade mínima necessária para criação de uma conta), em quatro países, EUA, Reino Unido, Canadá e Austrália. As contas foram definidas como vulneráveis e padrão, e as primeiras continham a expressão “perder peso” nos seus nomes de utilizadores, já que, de acordo com o grupo, existem investigações que mostram que os utilizadores das redes sociais que procuram conteúdo sobre transtornos alimentares escolhem, geralmente, nomes que contêm palavras relacionadas com o tema.
Em primeiro lugar, a equipa pretendia perceber qual é a eficácia de os algoritmos do TikTok recomendarem conteúdo aos utilizadores. Por isso, nos primeiros 30 minutos desde a criação das contas, os novos utilizadores fizeram pausa e colocaram gostos em vídeos relacionados precisamente com transtornos alimentares, imagem corporal e saúde mental.
Os resultados surgiram rapidamente: para os utilizadores padrão, conteúdos sobre suicídio apareceram três minutos depois e sobre distúrbios alimentares até oito minutos depois. O estudo escreveu ainda que foram mostrados vídeos sobre automutilações ou distúrbios alimentares a cada 206 segundos.
Contudo, o que mais alarmou os investigadores foram os conteúdos relacionados com a imagem corporal, já que, nas contas, eram exibidos vídeos que anunciavam bebidas para perda de peso e abdominoplastias, cirurgias de redução de gordura em excesso na zona do abdómen. A equipa referiu ainda que, num dos vídeos a aparecer no feed For You do TikTok para as contas padrão, ouvia-se, no áudio, “estou a morrer de fome por ti”, e contabilizava mais de 100 mil gostos.
Em relação às contas consideradas vulneráveis, os investigadores descobriram que os vídeos relacionados com a imagem corporal, saúde mental e distúrbios alimentares apareceram três vezes mais relativamente ao verificado nas contas padrão. Além disso, explicou o grupo, as contas vulneráveis receberam 12 vezes mais recomendações de vídeos relacionados com automutilação e suicídio do que as contas padrão, com conteúdos mais extremos, que incluíam métodos de automutilação e, mais grave ainda, jovens a discutirem planos de suicídio.
Para as contas consideradas vulneráveis, os vídeos relacionados com saúde mental (a maioria) – ansiedadee inseguranças, por exemplo – ou imagem corporal eram mostrados a cada 27 segundos.
Apesar destes resultados, a equipa esclarece que não diferenciou, no estudo, conteúdos considerados positivos e negativos e um porta-voz da rede social garantiu ao jornal britânico que o estudo não reflete a experiência de utilização dos utilizadores, na vida real. “Consultamos regularmente especialistas em saúde, removemos quem viola as nossas políticas e fornecemos acesso a recursos de apoio para quem precisa”, afirmou, acrescentando que a empresa “continua focada em promover um espaço seguro” para todos.
No ponto “suicídio, autolesão e transtornos alimentares” incluído nas diretrizes do TikTok, é escrito que não é permitido “conteúdo que apresente, promova, normalize ou exalte atividades que possam induzir a suicídio, automutilação ou transtornos alimentares”.
“Contudo, apoiamos os membros da nossa comunidade a partilharem as suas experiências pessoais com essas questões, de forma segura, para consciencializar e procurar o apoio da comunidade. Também incentivamos as pessoas que estejam a enfrentar pensamentos de suicídio ou autolesão, ou que conheçam alguém que esteja seriamente a considerar o suicídio, a entrar imediatamente em contacto com os serviços de emergência locais ou uma linha direta de prevenção de suicídio”, lê-se ainda.