A famosa Inteligência Artificial (IA), nos últimos tempos, tem andado muito ocupada e gerou vídeos de presidentes, CEOs, cantores e atores famosos, quando os legítimos nada tinham a ver com isso. Era uma questão de tempo até que alguém em Portugal invocasse que tinha sido vítima de deepfake, alegando que certas imagens de vídeo não eram suas.
Deveremos perceber que, para já, não existe uma única IA, mas sim vários sistemas, criados pelo ser humano, que fazem mais que o tratamento de dados que recebem – eles conseguem gerar novos resultados, como previsões, recomendações ou decisões.
Como qualquer ferramenta, a sua utilização depende de quem a utiliza e dos respetivos fins.
Se recentemente foi notícia a clonagem de voz de uma personalidade pública, com o seu consentimento, para a realização de um podcast, importa sublinhar que este tipo de tecnologias permite a clonagem da voz de qualquer cidadão, a partir de amostras de voz que podem ser obtidas por vários meios, nomeadamente através de chamadas ou introduções ilegítimas em sistemas informáticos que legitimamente as guardam, nomeadamente para prova de transações comerciais.
Não é difícil perceber que os respetivos áudios gerados podem dar origem a balbúrdias e ser instrumento para cometimento de crimes.
Da mesma forma, vídeos com conteúdo não correspondente a um evento histórico podem colocar a imagem de alguém num tempo, num espaço, num contexto, a fazer ou a não fazer algo, quando… nada existiu.
Num processo-crime, os clássicos exemplos de alguém plantar uma impressão dactiloscópica num local para afastar a responsabilidade penal de outrem, após a polícia ter inspecionado devidamente o local, têm sido, com relativa facilidade, desmontados.
Num futuro próximo, se alguém enveredar por tais práticas, seja para desviar a atenção da investigação, seja para criar uma dúvida razoável que leve à sua não responsabilidade penal, os tribunais, para formar a sua convicção, terão de recorrer a especialistas e (outras) ferramentas de inteligência artificial que irão analisar detalhadamente vídeos e áudios para permitir a conclusão se as imagens e sons são objeto de manipulação digital ou verdadeiros.
O problema do deepfake é que teremos de desconfiar dos nossos sentidos, mormente visão e audição. Teremos de analisar se os dados que estão na origem dos nossos inputs não foram alterados ou modificados. No fundo, garantir a segurança dos dados e a transparência.
Para as polícias, o desafio, para além de ter de investir em pessoas e ferramentas para detetar aqueles pequenos defeitos que a IA ainda vai criando imagem a imagem, é de elevar ainda mais aquilo que sempre tem feito – rapidamente obter elementos de prova cada vez mais disponíveis na nossa pegada digital que todos deixamos e assegurar uma cadeia de custódia, para garantir que as provas não são alteradas.
Em conclusão, tenha cuidado com os seus dados biométricos, desde a sua imagem à sua voz, passando por algo tão único como a sua íris. Atue rapidamente se for vítima de algum esquema criminoso, desde logo para remoção de conteúdos falsos e eventuais indemnizações. Se for criminoso, perceba que plantar provas falsas, por si mesmo, é mais um crime, que o abrange a si e a todos que podem estar no esquema.
O deepfake é um desafio aos nossos sentidos, à privacidade, à honra e consideração, à segurança, integridade da informação, à prova em qualquer processo, à justiça e à democracia. Por isso mesmo, teremos todos de estar conscientes e à altura do desafio.
Os textos nesta secção refletem a opinião pessoal dos autores. Não representam a VISÃO nem espelham o seu posicionamento editorial.