Já foram vários os vídeos que circularam nas redes sociais que, ao serem criados por um sistema de inteligência artificial, assemelhavam-se a imagens reais. Aconteceu com Bruce Willis, com Elon Musk e até com Volodymyr Zelesnky. Mas nem todos os utilizados perceberam que se tratavam de imagens criadas artificialmente, fazendo subir de tom a discussão sobre os perigos deste tipo de tecnologia.
Ainda na passada quinta-feira, 25, o crítico do Kremlin, Bill Browder, afirmou que foi alvo de uma farsa deepfake quando participou numa videochamada com alguém a fazer-se passar pelo ex-presidente ucraniano Petro Poroshenko. O ativista foi convidado a discutir as “sanções anti-Rússia”, mas acabou a ser questionado se era a favor de suspender as sanções aos oligarcas do Kremlin. Quando percebeu que a conversa se estava a tornar estranha, com pedidos fora do comum, o crítico desligou.
Os alertas para os utilizadores redobrarem a atenção são cada vez mais, e por isso seguem-se algumas dicas para que possa estar também mais vigilante. Desde logo, é importante estar atento ao rosto que se apresenta no vídeo: desconfie de todas as expressões que possam parecer pouco naturais ou posições um pouco mais estranhas. Por exemplo, se o rosto estiver virado para um lado e o nariz para o outro, ou se o nariz e o queixo estiverem desalinhados.
Além disso, a textura da pele também ajuda a entender se as expressões são reais ou manipuladas, tendo sempre maior atenção às bochechas e a testa. Os olhos e os seus movimento são também importantes detetores: vídeos em que a pessoa não pisca os olhos, pisca com grandes intervalos ou pisca em excesso podem ser deepfakes.
O mesmo acontece com a boca. Os primeiros indícios são a cor e o tamanho: se não corresponderem à imagem real da pessoa, provavelmente são vídeos modificados. O movimento dos lábios também pode ser um motivo de alerta, por isso certifique-se de que o áudio e o movimento da boca da pessoa estão sincronizados, detetando movimentos estranhos ou algum tempo de diferença entre o que ouve e o que vê.
Num conjunto todo, o corpo também pode denunciar o vídeo. Movimentos robotizados, expressões neutras, a posição da cabeça, movimentos bruscos ou até a iluminação contrária aos gestos podem ajudar a identificar o que é real ou não. Apesar de muitas vezes a inteligência artificial ser uma boa ferramenta de simulação em imagens frontais, ainda existe alguma dificuldade em criar frames na lateral, o que pode ser um indicativo de um vídeo modificado.