Na passada segunda-feira, o vice-presidente da Facebook, Chris Sonderby, divulgou num comunicado de imprensa que, ao todo, o vídeo do ataque às mesquitas neozelandesas foi reproduzido aproximadamente 4000 vezes antes de ser apagado da plataforma da rede social. Só passados 29 minutos do início do streaming é que chegou o primeiro alerta dos utilizadores.
O vice-presidente da Facebook tornou estes dados públicos, um dia após a rede social ter anunciado que removeu um milhão e meio de vídeos da sua plataforma nas 24 horas que se seguiram ao ataque, dos quais 1.2 milhões foram travados em fase de upload e cerca de 300 mil chegaram a estar na plataforma e puderam ser vistos.
Embora a Facebook tenha tentado colmatar os danos da disseminação do vídeo, esta situação vem agravar o lado mau das redes sociais, na medida em que estas facilitam a partilha de conteúdos, quer sejam para bons, ou maus fins – neste caso, o Facebook Live foi o meio escolhido para dar voz a ideologias perigosas e para publicitar uma mensagem de ódio, com a qual a rede social não quer, nem está, associada.
«Este incidente destaca a importância de haver uma maior união de forças entre membros da indústria, no que respeita a travar ações de terrorismo e de extremismo que possam operar a partir da Internet», concluiu Sonderby, sabendo que outras plataformas, como a YouTube, passaram pelo mesmo processo de eliminação de conteúdos sensíveis. Em muitos casos os utilizadores utilizaram marcas de água ou alteraram o tamanho dos ficheiros de forma a evitarem que os vídeos fossem identificados facilmente pelas plataformas.