Aquilo que já se sabe chega e sobra para se ficar com vontade de ir a correr fechar a conta no Facebook. Quem tem filhos menores (e, particularmente, filhas adolescentes) deve também ponderar ter uma conversa muito séria com eles sobre o Instagram. É isso ou fazer figas para que Washington avance, sem mais delongas, com legislação capaz de travar o aparente desnorte da empresa de Mark Zuckerberg.
Não é exagero. Uma versão muito editada dos mais de dez mil documentos internos que Frances Haugen, uma ex-analista do Facebook, fez chegar ao Congresso começou, esta semana, a ser vertida em reportagens por um consórcio de 17 agências e órgãos de comunicação social americanos. E a sensação é de que a rede social vai implodir em breve.
Ainda agora arrancaram os “Facebook Papers” e já todos percebemos por que está Zuckerberg a equacionar seriamente a hipótese de mudar o nome da sua maior criação.
A disseminação da desinformação e o falhanço na moderação do discurso de ódio, sobretudos em países de língua não inglesa, são dois dos problemas apontados ao Facebook. Mas há mais.
Segundo a CNN (que faz parte do consórcio que inclui, entre outros, The New York Times, The Washington Post, Reuters, Associated Press, Bloomberg, Politico e Le Monde), a empresa sabe que traficantes de pessoas usam as suas plataformas para a prática da chamada “servidão doméstica”. E sabe-o desde, pelo menos, 2018.
A servidão doméstica é “uma forma de tráfico de pessoas com a finalidade de trabalhar dentro de casa por meio do uso de força, fraude, coerção ou engano”, lê-se nos documentos da empresa a que a CNN teve agora acesso. Em 2019, a Apple ameaçou retirar o acesso do Facebook e do Instagram na App Store, e os funcionários correram a retirar “conteúdo problemático”.
Mas é uma corrida que parece nunca ter fim. Há muitos fogos para apagar no Facebook – e também poucos meios alocados, revelam os documentos internos.
‘Nunca vi tantos mortos’
Frances Haugen não está sozinha na sua luta. Mesmo fora da empresa, onde trabalhou de 2019 a maio deste ano, tem a solidariedade dos seus muitos ex-colegas que, segundo estes documentos internos, terão várias vezes feito soar internamente os alarmes. Ainda na sexta-feira, 22, um outro antigo funcionário apresentou anonimamente uma queixa contra o Facebook na Comissão de Valores Mobiliários e de Câmbio (SEC), com alegações semelhantes às suas.
A avaliar pelo que se vai sabendo, aos poucos, as histórias serão mais do que muitas.
De acordo com o The New York Times, em 2019 um funcionário do Facebook ficou chocado com o resultado da experiência que fez para perceber como o algoritmo lidava com regionalismos. Criou uma conta como se morasse na Índia e pediu para que ela seguisse todas as recomendações geradas pelos algoritmos do Facebook para entrar em grupos, ver vídeos e explorar outras páginas da rede social. Ao fim de pouco tempo, deparou-se com um problema de “distorção” das recomendações do Facebook.
“Seguindo o feed de notícias desse utilizador de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida”, escreveu ele num dos documentos agora tornados públicos.
O The Washington Post, por sua vez, revelou que, em 2020, Mark Zuckerberg decidiu pessoalmente que o Facebook iria atender às exigências do governo vietnamita que queria censurar publicações que iam contra o Partido Comunista. A SEC, que regulamenta e controla os mercados financeiros dos Estados Unidos, ainda não disse se vai mover uma ação contra o próprio Zuckerberg. Se o fizer terá com certeza em conta o facto de, segundo dados da Aministia Internacional, a receita do Facebook no Vietname ter sido de cerca de mil milhões de dólares só em 2018.
A ‘Cúpula Cívica’ e as ‘fake news’
A descoberto também ficaram, agora, as discrepâncias no funcionamento da “Cúpula Cívica”. Criada para tentar proteger a democracia da desinformação durante as eleições no mundo, ela agrupa os países que receberam investimento e supervisão de acordo com o tamanho da ameaça.
Segundo o The Verge, o Brasil, a Índia e os Estados Unidos foram colocados na chamada “camada zero”, que é considerada a maior prioridade do Facebook. Esses países receberam, por isso, os principais recursos da rede social, incluindo as famosas “salas de guerra”, onde uma equipa acompanhava e analisava as atividades eleitorais na plataforma.
Embora o Facebook alegue que a alocação de recursos reflete as melhores práticas sugeridas pelas Nações Unidas, os documentos revelam algumas discrepâncias. Por exemplo, tanto Myanmar, como Paquistão e a Etiópia, países que foram designados como de maior risco durante as eleições, não tiveram a atenção da cúpula. A Etiópia, aliás, apesar de estar em pleno conflito civil, não recebeu classificadores de discurso de ódio.
A disseminação de informações falsas também é alvo de várias reportagens do consórcio. O The New York Times escreve que funcionários da rede social alertaram inúmeras vezes para as fakes news durante campanhas eleitorais, solicitando uma intervenção urgente da empresa que não aconteceu. E o The Wall Street Journal cita documentos que revelam uma “elite secreta” de celebridades e políticos que nunca são punidos pelo Facebook.
Seleção injusta?
No seu testemunho no Congresso, no início deste mês, Frances Haugen declarou, sem paninhos quentes, que os produtos de Facebook “prejudicam as crianças e debilitam a democracia”. E apontou o dedo aos dirigentes da empresa que, segundo ela, “sabem como conseguir com que o Facebook e o Instagram sejam mais seguros, mas não fazem as alterações necessárias porque põem os lucros astronómicos à frente das pessoas”.
A empresa já argumentou que a seleção feita por Haugen dá uma imagem parcial do que se passa – sendo, por isso, injusta.
“No cerne dessas histórias está uma premissa que é claramente falsa: que não colocamos as pessoas que usam o nosso serviço em primeiro lugar e que conduzimos pesquisas que depois ignoramos sistematicamente. Sim, somos uma empresa e temos lucro, mas a ideia de que fazemos isso à custa da segurança ou do bem-estar das pessoas não interpreta bem o que fazemos”, afirmou Nick Clegg, vice-presidente dos Assuntos Globais do Facebook.
Por sua vez, e a propósito dos acontecimentos a 6 de janeiro no Capitólio, o porta-voz da empresa, Andy Stone, rejeitou a responsabilidade da violência: “[Ela] é daqueles que atacaram o nosso Capitólio e daqueles que os encorajaram. Tomámos medidas para limitar o conteúdo que procurava deslegitimar a eleição, incluindo marcar as publicações dos candidatos com a contagem dos votos mais recentes depois de o sr. Trump ter declarado prematuramente a vitória, interromper a nova campanha publicitária política e remover o grupo original #StopTheSteal original.”
Vai continuar tudo na mesma?
São declarações que parecem sacudir a água do capote e abrir espaço para tudo continuar como dantes. Um mês depois de o The Wall Street Journal (que não pertence ao referido consórcio) ter revelado um relatório interno que designara um violento cartel de drogas mexicano, conhecido como Cartél Jalisco Nueva Generación, como um dos “Indivíduos e Organizações Perigosas”, o conteúdo não foi removido.
O cartel estaria a usar o Facebook para publicar conteúdo violento e recrutar novos membros. Em setembro, a empresa garantiu ao Journal que estava a investir em inteligência artificial para banir esse tipo de grupos. Mas, ainda na semana passada, a CNN identificou conteúdo perturbador vinculado ao referido cartel mexicano no Instagram, incluindo fotografias de armas e de pessoas que parecem ter sido decapitadas.
A verdade é que a empresa não parece sequer estar disposta a acabar com um problema bem mais simples que são os “likes” no Instagram. Apesar de estar provado que essa função tem efeitos prejudiciais, sobretudo nas jovens, Zuckerberg não a elimina porque ela é uma ferramenta necessária para aumentar o envolvimento dos utilizadores.