Um grupo de investigadores do Instituto de Tecnologia Federal de Lausanne, na Suíça, analisou as tendências de três grandes comunidades, todas contrárias as opiniões e comportamentos mainstream: a dark web intelectual, a Alt-lite (virada para a direita, mas não extremista) e a radical Alt-right. O primeiro grupo justifica a supremacia branca com base na eugenia e na “ciência da raça”, a Alt-lite não apoia a supremacia branca, mas acredita em teorias da conspiração sobre a substituição que as minorias vieram provocar e a Alt-right é o mais radical deste espetro, defendendo a supremacia branca e que apoia a criação de estados “brancos”.
A equipa analisou mais de 330 mil vídeos, publicados em 350 canais do YouTube e classificou-os de forma manual. A hipótese em análise era que os membros classificados como dark web intelectual ou com a Alt-lite poderiam ser encaminhados para conteúdos com mensagens mais radicais e que são mais difíceis de encontrar. A teoria é que o algoritmo de recomendações do YouTube torna esta procura mais fácil, ao recomendar aqueles conteúdos a quem publique comentários em vídeos mais moderados, explica o Technology Review.
Os cientistas rastrearam os 72 milhões de comentários publicados em cerca de dois milhões de vídeos entre maio e junho do ano passado, concluido que 26% das pessoas que comentavam vídeos Alt-lite eram “levados” a ver vídeos Alt-right e depois deixavam aí o seu comentário. O próprio algoritmo redireciona os utilizadores que procurem determinadas palavras-chave, se tivessem publicado comentários antes, levando-os a conteúdos mais violentos e extremos.
Os autores do estudo alertam ainda que há cada vez mais sobreposições entre estes grupos e que cerca de 60 mil utilizadores que comentaram em vídeos mais moderados foram expostos a material da Alt-right durante um período de 18 meses.
Uma vez que o YouTube restringe o acesso aos dados de recomendação, não é possível traçar claramente uma relação entre o “desvio” de quem comenta vídeos Alt-lite para a Alt-right, sendo válida a hipótese de estes utilizadores poderem já ter sido radicalizados antes de publicarem os comentários, por fontes externas à plataforma de vídeos.
O YouTube defende que tem estado a tentar mitigar esta situação, com o encerramento de canais conotados com a extrema-direita e que apelam à violência. «Nos últimos anos, mudamos os algoritmos de visualização e pesquisa (…) para reduzir as recomendações de conteúdos e vídeos que possam desinformar os utilizadores de forma perigosa». Um porta-voz da plataforma alerta ainda que o estudo de Lausanne não tem em consideração as atualizações mais recentes que foram efetuadas no YouTube no que diz respeito a discursos de ódio e recomendações.