Foi proposto um projeto-lei esta quarta-feira no estado da Califórnia, nos Estados Unidos da América, que prevê a proibição do uso de software de reconhecimento facial em câmaras de corpo policiais por um período de três anos. Desde agosto que se tem vindo a discutir o papel da tecnologia nas atividades policiais do estado californiano e em causa está o confronto entre a segurança e a privacidade dos cidadãos americanos e as consequências das falhas deste tipo de softwares, que podem levar a detenção de errada de indivíduos.
A polémica gerou-se, quando, no mês passado, 26 membros da assembleia californiana foram identificados inequivocamente numa base de dados que compilava de 25 mil fotografias de criminosos, durante um teste de vigilância. Este teste foi feito pela American Civil Liberties Union (ACLU), uma associação americana sem fins lucrativos, focada na luta dos direitos civis.
Phil Ting, membro da assembleia estadual da Califórnia e responsável pelo projeto-lei, contou ao Washington Post que os softwares de Inteligência Artificial (IA) «não estão ainda preparados para serem usados com este fim», tendo sublinhado que poderão vir a minar a relação entre as forças policiais e a comunidade.
«As câmaras corporais têm sido usadas como uma ferramenta para aumentar a confiança entre as comunidades e as autoridades e para aumentar a transparência das situações», continuou. «Colocar um software de reconhecimento facial nessas câmaras vai ajudar a destruir essa confiança. Torna uma ferramenta que pretende aumentar a transparência e abertura, numa ferramenta de vigilância constante.»
A publicação Wired conta que Matt Cagle, um advogado que pertence à ACLU, reforça a ideia, afirmando que as câmaras corporais, famosas por revelarem as atrocidades cometidas por membros das autoridades americanas contra «pessoas de cor desarmadas», são agora usadas como um sistema de vigilância.
De acordo com a mesma publicação, empresas tecnológicas como a Amazon defendem que o reconhecimento facial deve ser regulado e não banido. A empresa afirma ainda que os maus resultados podiam ter sido evitados caso a ACLU tivesse programado o teste para assinalar pessoas apenas em caso de 99% de correspondência de dados.