Costuma dizer-se, e de forma justificada, que a indústria pornográfica é tendencialmente uma das primeiras a adotar novas tecnologias (streaming ou realidade virtual para citar apenas um par de exemplos), mas há situações em que isso não é necessariamente bom. Veja-se o caso das deepfakes. Não sabe o que é? Basicamente é um conceito que surgiu com maior força no ano passado na Internet em que alguns utilizadores descobriram que podiam recorrer à Inteligência Artificial para colocar o rosto de celebridades em clips de filmes. O que começou como uma brincadeira que servia para meter Nicolas Cage a interpretar todas as personagens de uma obra rapidamente extravasou para colocar caras de celebridades em filmes pornográficos.
A situação chegou a tal ponto que, recentemente, Scarlett Johansson veio a público dizer que estava farta de ver a sua cara em filmes pornográficos – eu então lamentava o oposto, mas compreendia as opções de carreira da atriz e já me dava por feliz em vê-la em Don Jon. Brincadeiras à parte, a verdade é que as declarações da artista serviram para chamar a atenção para um ponto importante: o que se pode fazer para combater as deepfakes? O cenário avançado por Scarlett Johansson ao Washington Post é pouco animador: «Parece-me que é uma perseguição inútil do ponto de vista legal, porque grande parte da Internet é um buraco cheio de escuridão que se vai consumindo por si próprio. Mesmo registando a autoria das imagens com a minha cara, que me pertence, essas mesmas leis podem não se aplicar fora do país. Infelizmente, é um caminho que tenho feito muitas, muitas vezes». Resumindo, desistiu de lutar contra este problema.
A questão que se levanta é que é apenas uma questão de tempo até os deepfakes passarem de um problema que afeta unicamente as celebridades para chegar a praticamente toda a gente, uma espécie de “revenge porn meets girl (or boy) next door”. E essa janela de tempo poderá ser bem curta a julgar pelo serviço que a empresa Naughty America começou a comercializar: a possibilidade de os clientes pagarem para customizar clips de filmes para adultos a seu gosto. O argumento é que assim as pessoas poderão realizar as suas fantasias ao colocarem-se a si mesmas em cenas com as suas atrizes ou atores de eleição – uma espécie de Deepfakes-as-a-Service ou, como prefiro chamar-lhe, DaaS…
Cabe à pessoa enviar à Naughty America um conjunto de fotos e vídeos seus – diferentes expressões faciais incluídas – para que o software consiga depois replicar as semelhanças, sendo que os serviços legais da empresa ficam encarregues de obter permissão por parte dos atores envolvidos. Feitas as contas, é um serviço que pode ir de algumas centenas a alguns milhares de dólares. Parece-me uma caixa de Pandora, pois como se pode garantir que as imagens enviadas à Naughty America foram obtidas de forma consensual? E quanto tempo demorará para chegar em força a moda das deepfakes ao mainstream e serem utilizadas para manipulação política e social? Um responsável da Naughty America dizia à FastCompany que «as deepfakes não magoam as pessoas, as pessoas que usam deepfakes é que magoam pessoas». Pois, é a mesma linha de raciocínio de um “as armas não matam pessoas, as pessoas é que matam pessoas” e que fica a um passo do “como se acaba com uma pessoa má com uma arma é com uma pessoa boa com uma arma” – no caso do DaaS, isso significará que para acabar com uma má deepfake será preciso uma pessoa com uma boa pila?