Se está a ler esta história, tenho mais de 50% de probabilidades de ter chegado até ela via Facebook. Ou, a atender às acusações graves que saíram esta semana de manipulação pouco escrupulosa do que é ou não visível na rede social, posso ter muito menos do que isso. Será que o Facebook, se não gostar do tom crítico deste meu texto, pode ocultá-la das cronologias e empurrá-la para baixo nos newsfeeds, reduzindo as possibilidades de se ser lida? Dito de outra forma: estará o Facebook a fazer uma gigantesca (e perigosa e anti-ética) operação de filtragem com objetivos desconhecidos e consequências imprevisíveis?
Quando visitei a sede do Facebook no ano passado (fui a primeira e única jornalista portuguesa a entrar no coração de Menlo Park, em Silicon Valley, numa reportagem para o Expresso), uma das coisas que mais me fascinava era perceber como é construído o misterioso algoritmo que é chave do sucesso desta rede social. Este código chamado EdgeRank, gigantesco e sempre em construção, tem uma equipa de mais de 30 pessoas em permanência a trabalhar na fórmula e incorpora mais de 100 mil variáveis. Vou repetir o número, para poder digerir melhor: 100 mil variáveis decidem o que cada um de nós vê na nossa timeline, quais as notícias que surgem primeiro lugar, quais os amigos que nos aparecem à frente, que tipo de posts patrocinados nos impingem, etc..
Com cada vez mais pessoas e empresas a publicar coisas no Facebook, há milhares de notícias a concorrer cada vez que cada utilizador entra na sua cronologia. É evidente que um algoritmo eficiente é uma necessidade e, sobretudo, uma grande ajuda. Não é difícil perceber que reside aqui o segredo do negócio do Facebook: ninguém volta a um sítio onde não foi feliz, e se o que nos aparece na cronologia não nos interessar nada, é mais do que certo que não vamos lá voltar tão cedo.
Mas é também no dito algoritmo que residem as enormes questões éticas e políticas do Facebook. Se aquela é a maior nação do mundo, a forma como é gerida tem de obedecer a regras democráticas e deontologicamente irrepreensíveis. Só que, claro está, o segredo é a alma do negócio e ninguém faz ideia, a não ser os escassos tipos pagos a peso de ouro para o contruir e ficar calados, exatamente que tipo de variáveis estão incorporadas naqueles cálculos.
Falei na altura com Will Cathcart, diretor de product management do Facebook, que foi um dos responsáveis por esta equipa. Explicou-me ele que para a visibilidade de qualquer post numa cronologia contam fatores como a atualidade, a preferência passada de um utilizador pelo tipo de post, o interesse do utilizador pelo autor ou tipo de conteúdo, a performance deste post entre os outros utilizadores, a performance dos posts do autor entre os amigos do utilizador, e por daí em diante…
Só que o secretismo deste algoritmo de filtragem (lá dentro preferem, claro, chamar-lhe “seleção”) é uma das críticas mais ouvidas ao Facebook, que já tinha sido no passado alvo de alegações de que favorecia conteúdos de determinadas entidades em detrimento de outras. O Facebook garantiu sempre a pés juntos que não. Só que, esta semana, foram acrescentadas achas em brasa para esta fogueira.
A Gizmodo divulgou uma história citando antigos trabalhadores da empresa que confirmaram que suprimiam constantemente da secção “Trending” notícias políticas relacionadas de conservadores ou de sites associados a essa ala (como o Breitbart.com or Newsmax.com). O separador “Trending” só está disponível em inglês e em determinados países, mas nos Estados Unidos é uma ferramenta poderosa para dar gás a peças que estão a “bombar” na rede. Dizem estes ex-trabalhadores que o objetivo era não dar visibilidade a estas histórias. A pergunta impõe-se: o que vimos naquela rede social é manipulado para efeitos políticos? O que nos surge à frente dos olhos tem, além do dito algoritmo que não sabemos bem como funciona, também intervenção humana que obedece a gostos próprios ou orientações pessoais?
À segunda pergunta veio resposta dias mais tarde, num texto do Guardian que deu conta de um documento interno confidencial de 21 páginas que atesta que há intervenção humana em quase todas as etapas da operação relacionada com as notícias. Neste documento, que dá as orientações para os editores de notícias da rede social, explica-se por exemplo como injetar histórias no tal módulo “Trending”, ou como retirá-las de lá. São as mesmas alegações feitas pela Gizmodo, mas desta vez confirmadas com documentos. O cenário é assustador, Orson Welles não se teria lembrado desta. O Facebook, que começou por recusar a acusação, acabou por dizer que vai investigar. E Zuckerberg até convidou os conservadores para um debate.
O mundo é o que é, e as redes sociais trazem muitas vantagens. Há quem tenha desistido de se informar de outra forma a não ser por aqui. Há quem fique satisfeito com as notícias que lhe aparecem na timeline, e se ache assim comodamente informado. Mas é bom não esquecer que a realidade que nos surge tão confortavelmente à frente dos olhos é, para o bem e para o mal, filtrada, escolhida e selecionada segundo critérios que não são públicos nem sujeitos a qualquer fiscalização nem regulação. E isso não deixa de ser um bocadinho assustador…