A nível internacional não parecem existir dúvidas: câmaras de videovigilância com sistemas de reconhecimento facial e outros mecanismos de identificação dos cidadãos devem ser banidos. Pelo menos até que exista a certeza de que temos a tecnologia com algoritmos justos, não discriminatórios, e que temos em prática processos robustos que não permitem abusar de uma ferramenta que tem o poder de colocar as nossas liberdades em causa quase como nenhuma outra o fez até hoje. O problema? O governo português quer ir justamente no sentido contrário.
Sou da opinião que esta é uma daquelas tecnologias em que não podemos – de todo – fazer primeiro e arrumar os cacos depois. A partir do momento em que se cria uma infraestrutura para uma sofisticada rede de vigilância, nunca mais se volta atrás. Não podemos pensar na videovigilância com recolha de dados biométricos – justamente aquilo que o Governo propôs há um par de semanas – apenas como uma nova tecnologia da qual queremos tirar proveito. Temos de pensar em todas as suas consequências, boas e más, a curto, médio e longo prazo, algo que não me parece que esteja a ser feito no caso português.
Ainda há duas semanas, Michelle Bachelet, comissária da Organização das Nações Unidas (ONU) para os Direitos Humanos, pediu uma moratória para sistemas de Inteligência Artificial (IA), no qual se inclui a videovigilância com IA integrada, que ameacem os direitos humanos básicos. Em abril, a Comissão Europeia classificou a videovigilância com reconhecimento facial como uma utilização de “alto risco” de tecnologias de IA – mas admite que é possível usá-la, em casos específicos. Em junho, foi a vez de os reguladores europeus da privacidade (EDPB e EDPS), numa posição conjunta, terem pedido que estes sistemas fossem banidos na União Europeia. E depois, quase que numa realidade paralela, tivemos, em setembro, o Governo a propor uma lei de videovigilância renovada e que abre portas à instalação e uso deste tipo de tecnologia – um tema de responsabilidade direta do Ministério da Administração Interna (MAI), liderado por Eduardo Cabrita, e um projeto de lei do Governo, liderado por António Costa.
Em abono da proposta do Governo, apesar de as câmaras poderem recolher imagens com dados biométricos, esses dados só poderão ser usados para prevenir atos terroristas e mediante autorização judicial prévia. E é aqui que me vem à cabeça o conceito de proporcionalidade – a relação entre custo e benefício. É mesmo necessário montar uma rede de vigilância altamente intrusiva para apanhar terroristas?
É que se quiserem falar de terrorismo, posso recordar aqui de forma rápida o encontro que altas figuras do Estado português – incluindo o primeiro-ministro António Costa e o Presidente da República Marcelo Rebelo de Sousa – tiveram com um suspeito (entretanto detido) de pertencer a uma organização terrorista. Se calhar há muitos outros ajustes que é preciso fazer na eficácia da segurança interna de Portugal antes de avançarmos para uso de videovigilância inteligente com este pretexto. Digo eu.
E digo isto na exata medida em que também não concordo que se acabe ou coloque em causa a encriptação em sistemas de comunicação, como alguns países querem fazer, usando como pretexto a resolução de um determinado conjunto de crimes, por mais hediondos que sejam (como pornografia infantil). Mesmo que acabassem com a encriptação, continuaria a haver crimes de pedofilia online, da mesma forma que se todas as câmaras de videovigilância do País reconhecessem rostos, isso também não iria acabar com o terrorismo.
Enquanto jornalista, tenho a possibilidade de falar com pessoas com linhas de pensamento muito distintas entre elas e também das minhas próprias ideias. E isso permite-me aprender. Vou aqui recordar duas ideias que aprendi no último ano e às quais tenho voltado repetidamente na minha cabeça, mais até do que gostaria. Uma é de Ricardo Lafuente, da Associação dos Direitos Digitais, quando a propósito do lançamento da aplicação Stayaway Covid, dizia que nem todos os problemas se resolvem atirando tecnologia para cima deles. A outra é de Cindy Cohn, da Fundação Fronteira Eletrónica (EFF), que defende que em vez de se fazer lobby na criação de tecnologias que podem pôr em causa a segurança de todos, as forças de segurança devem investir em métodos tão ou mais eficazes para chegarem aos criminosos. Exemplo? O FBI criou, de raiz, uma aplicação de mensagens encriptadas que se tornou um sucesso junto de muitos criminosos. No final foram quase todos presos.
‘Mas Rui, a tecnologia tem ajudado a resolver muitos crimes’. Tudo certo. Mas há linhas que não devem ser ultrapassadas e se o forem, só com cautelas e muitas, muitas garantias (sobretudo na transparência com que tudo é feito). O software Pegasus (de uma empresa, é certo) também foi criado para apanhar terroristas e entretanto já é usado para perseguir políticos, espiar jornalistas e pressionar defensores das liberdades onde elas não existem. Quer queiram, quer não, a história mostra-nos que a tecnologia não é boa nem má, mas vai ser usada para o mal. E portanto este é um princípio com o qual devem ser tomadas as decisões, incluindo as políticas.
Sei bem que o equilíbrio entre segurança, privacidade e proteção é dos mais difíceis de alcançar, sobretudo num mundo cada vez mais tecnológico. Mas por isso mesmo é importante fazer a discussão de forma aberta, mais alargada e com diferentes pontos de vista. Veja-se um exemplo, arrogante na minha opinião, recente, de quem decidiu não fazê-lo: a Apple a propósito da tecnologia para detetar pornografia infantil nos smartphones.
Tudo certo com a finalidade que a Apple queria dar ao sistema. Mas tudo errado na forma como abordou a questão. Por não ter querido envolver outras partes numa questão tão sensível e importante, acabou por fazer asneira – do ponto de vista técnico, como se provou em menos de 24 horas, e até do ponto de vista societal, como ficou provado pelo próprio facto de a empresa ter recuado no lançamento do polémico sistema (lembrem-me lá quando foi a última vez que a Apple recuou no que quer que seja, admitindo que fez asneira…).
Portanto só peço isso: pensem bem no que estão a fazer e no que querem fazer com esta questão da videovigilância com reconhecimento facial e outros indicadores biométricos. Precisamos mesmo disso? Há outras formas de mitigar os problemas para os quais querem usar esta tecnologia? Os riscos compensam os benefícios? E se daqui a 15 anos houver um partido com maioria no Parlamento que quer tirar ainda mais proveito desta rede de ‘olhos’ em cada esquina? Quais as garantias de que este sistema nunca será usado para nos perseguir? E vamos simplesmente ignorar todos os alertas que têm sido feitos pela Comissão Europeia, reguladores da privacidade e ONU?
Caramba, estamos sempre a criticar a China, a dizer que lá é assustador por haver câmaras inteligentes em todo o lado. Não quero que comecemos a percorrer o mesmo caminho aqui.