A Pornhub anunciou na semana passada que iria cortar o upload de conteúdos não verificados e avançou agora com a remoção de vídeos que não foram carregados por um ‘parceiro selecionado’ ou por um utilizador verificado. A empresa salienta que estes requisitos ainda não estão a ser aplicados por plataformas como Facebook, Instagram, TikTok, YouTube ou Twitter.
Na raiz desta decisão, apesar de a Pornhub não o confirmar explicitamente, parece estar um trabalho do New York Times que denunciava que as políticas ‘ligeiras’ do serviço estavam a abrir caminho para vídeos de exploração infantil, esquemas de revenge porn ou para conteúdos partilhados sem a autorização dos intervenientes.
Recorde-se que também na semana passada, Visa e Mastercard cessaram o acordo que permitia ao Pornhub aceitar pagamentos nestas plataformas, alegando ter encontrado conteúdo ilegal no portal. Assim, a empresa foi mesmo obrigada a mexer-se, com esta forte motivação financeira, no sentido de se tornar mais transparente e aplicar este tipo de políticas de verificação.
Antes da ‘limpeza’, o Pornhub mostrava ter mais de 13,5 milhões de vídeos e agora o mesmo indicador na barra de pesquisas mostra 4,7 milhões de vídeos. O Vice noticia que o número aumentou depois para 7,2 milhões, deixando no ar a sensação de que a validação ainda está a ser realizada.
O processo de verificação dos utilizadores (atualmente basta carregar uma selfie com um papel onde se escreve o nome de utilizador que se pretende e a referência pornhub.com) ainda vai ser melhorado para o próximo ano, embora não se conheçam as alterações para já.
O comunicado da Pornhub salienta que “no mundo atual, todas as plataformas de media sociais partilham a responsabilidade de combater o material ilegal. As soluções devem ser conduzidas por factos reais e especialistas reais. Esperamos ter demonstrado a nossa dedicação ao liderar pelo exemplo”.