Vejam só isto!” Humilhar publicamente alguém por divertimento, vingança ou para silenciar uma voz incómoda está ao alcance de todos. Basta usar uma arma que dispensa licença de porte e que dá pelo nome de deepfake – combinação de deep learning (aprendizagem aprofundada) dos programas de Inteligência Artificial (IA) e de fake (falso). Vídeos gerados por computador a partir de fotos extraídas da internet e manipuladas através de aplicações gratuitas e tutoriais para criar conteúdos fictícios (como FakeApp, DeepFaceLab, DeepVoice, DeepNude). Assim se colocam palavras na boca de quem nunca as pronunciou ou ações no corpo de quem nunca as desempenhou.
Os alvos mais apetecíveis dos criadores anónimos de deepfakes são as celebridades femininas, cujos rostos são inseridos em vídeos pornográficos visualizados por milhões de pessoas. Plataformas como Twitter, Reddit e Pornhub têm vindo a banir alguns destes conteúdos não autorizados e difamatórios, embora estejam longe de impedir que se expandam como um vírus. É o fim do mito “ver para crer”, de pouca valia a São Tomé se vivesse na era da pós-verdade.
Segundo um relatório da empresa de cibersegurança holandesa Deeptrace, divulgado em setembro, os vídeos deepfake são na sua maioria (96%) de teor pornográfico e dirigidos quase em exclusivo contra mulheres, na maior parte do mundo do entretenimento e da sétima arte.
Género, mentiras e vídeo
Despojar e difamar com calúnias forjadas e sexo à mistura é o novo normal. O problema está a resvalar para a arena política e a fazer as primeiras vítimas. Um relatório de investigadores de Oxford encontrou campanhas de desinformação bem organizadas em 70 países (em 2017, eram 28). No masculino, ficaram famosos os vídeos manipulados do CEO do Facebook, Mark Zuckerberg, e do ex-Presidente norte-americano Barack Obama a dizerem atrocidades; mas no feminino, a tentação de menorizar pela via do strip público parece ser a fórmula mágica.
Não escaparam a ela figuras como a chanceler alemã, Angela Merkel, ou a duquesa de Sussex, Meghan Markle. Há dois anos, foi a vez da jornalista finlandesa Jessikka Aro. Após ter denunciado trolls (agentes que publicam conteúdos ofensivos e calúnias para gerar respostas de fúria) pró-Kremlin, viu a sua morada e os seus dados de saúde expostos na internet e o deepfake que a apresentava como prostituta à caça de homens da CIA e da NATO. Resultado: após o choque e a humilhação, vieram as ameaças de violação e morte por parte de finlandeses indignados que caíram no embuste. Nos Estados Unidos da América, a presidente da Câmara dos Representantes, Nancy Pelosi, apareceu a discursar como se estivesse bêbada num vídeo que se tornou viral no Twitter, no YouTube e no Facebook. O segredo estava, afinal, na manipulação da velocidade do discurso (a 75% da original), mantendo o tom de voz.
Como se chega a tanta “desinformação sexualizada” – a expressão foi usada pelo The Economist – e que implicações vai ter esta arma de propaganda computacional pronta a destruir reputações como se se tratasse de um jogo de crianças?
Isabel Ventura, socióloga e investigadora na Universidade Aberta, em Lisboa, fala da dupla moral sexual (o estereótipo feminino de beleza prevalecer sobre o mérito) que faz com que, por exemplo, “Manuela Ferreira Leite fosse alvo de insultos altamente genderizados quando era ministra da Educação, como se ser bonita fosse uma obrigação”. Até quando se ataca alguém do sexo masculino se faz pelo feminino, “filho da…”. “Num mundo desigual, a inovação tecnológica reproduz o padrão de violência existente, por quem cria, partilha e vê.”
Jogos perigosos
“Quem cria estes vídeos falsos procura dar forma a fantasias, sem escrúpulos em violar a privacidade e a dignidade dos famosos”, afirma Henry Ajder, líder de comunicação e pesquisa da Deeptrace. A febre da aplicação Zao, na China, ilustra como essa proeza se alcança em segundos: “Fazem upload da imagem que querem na biblioteca de filmes, escolhem o vídeo (cena favorita) e geram o deepfake.” Tudo pelo prazer de passar por estrela ao lado dos ídolos de filmes e videojogos. No relatório não há referências a celebridades portuguesas, mas “não estão mais imunes por isso”. De resto, ninguém está a salvo: “Basta um namorado ciumento aceder a fotos e áudios de uma mulher nas redes sociais e ela fica vulnerável a ataques.”
Ao Centro Internet Segura, a funcionar desde janeiro, “não chegou nenhuma denúncia de deepfakes”, nota Ricardo Estrela, porta-voz da Associação de Apoio à Vítima (APAV), que gere a linha telefónica, onde receberam 20 queixas de “sextortion” (coagir alguém a fazer favores sexuais sob pena de ver divulgado material íntimo). Um estudo realizado por duas universidades do Reino Unido e coordenado pelo psicólogo Nelli Ferenczi demonstrou que o estereótipo de género persiste online, com os homens a afirmarem sentir-se superiores ao terem condutas ofensivas online, como o trolling, exercendo a sua faceta narcisista.
Quando a atriz Fernanda Serrano foi vítima da ação promocional de um filme de hardcore com uma protagonista húngara muito parecida com ela, em 2003, os 17 segundos de sexo com o título “O famoso filme de Fernanda Serrano” geraram consternação e um intenso debate público. Davam-se, então, os primeiros passos no fabrico de personagens virtuais em videojogos e filmes, como as de Avatar
“Criavam-se imagens digitais em cima dos movimentos e expressões dos atores, hoje isso faz-se de forma simplificada”, conta Miguel Crespo, investigador e docente em Ciências da Comunicação do ISCTE. E prossegue: “Coloca-se uma máscara sobre a zona do nariz, grava-se na mesma posição o que se pretende e substitui-se essa parte da face sobre a original.”
Por mais que se tenha a ideia de que é fácil destrinçar o que é, ou não, inócuo, uma coisa é certa: “As evidências visuais convincentes que comprometem a imagem acabam com o último reduto de veracidade.” O docente admite a possibilidade de, num futuro próximo, existirem “polícias de verificação de factos para vídeo”.
Manuel Lopes Rocha, advogado responsável da área de Propriedade Intelectual, Marcas e Patentes na Sociedade PLMJ, considera que “o problema não é de lei, que já existe para o porno de vingança e é aplicável aos deepfakes”. A morosidade da Justiça preocupa mais o jurista, que equaciona como será erradicar tanto material manipulado gerado por computador. Também há boas notícias: “Portugal é o País no mundo que mais depressa retira conteúdos impróprios online.” Contudo, não há como ignorar o seguinte: “Por cada minuto em que os deepfakes circulam no espaço virtual, mais a pessoa é lesada na sua imagem e personalidade.”
Vítor Palmela Fidalgo, docente da Faculdade de Direito da Universidade de Lisboa, sintetiza o que está realmente em jogo nos próximos anos: “Não se pode ter um nível superior de tecnologia, que é neutra, com um nível inferior de ética.”
Estamos mesmo prontos para isto?
Alguns dados do relatório da empresa de cibersegurança holandesa Deeptrace, divulgado em setembro
14 678
vídeos deepfake online
(no ano passado eram 7 694)
96%
dos vídeos são de conteúdos pornográficos
100%
das vítimas nos sites de deepfake porno são mulheres
134,4 milhões
o total de visualizações, em ano e meio, nos quatro principais sites dedicados a pornografia deepfake