Um conjunto de senadores democratas e independentes dos EUA apresentou a Facial Recognition and Biometric Technology Moratorium Act, uma proposta que visa colocar em suspenso a adoção de tecnologia de reconhecimento facial e de análise de dados biométricos por parte das agências governamentais e das autoridades. Ao abrigo desta proposta, os cidadãos e procuradores podem também encetar ações judiciais contra os governos federais, caso os seus dados biométricos estejam a ser recolhidos ou usados.
Estes legisladores pretendem combater os resultados discriminatórios que estas tecnologias têm provocado: “estamos a assistir ao uso continuado de plataformas de reconhecimento facial por parte do governo e das autoridades, resultando em discriminação que coloca inocentes atrás das grades. É claro que não podemos contar com as empresas privadas para implementar as suas próprias moratórias na tecnologia que ainda não está pronta para ser usada”, afirma o Senador Merkley, citado pelo Vice.
Nos EUA, estas tecnologias já são proibidas em mais de 20 cidades e no estado do Vermont, precisamente pelo receio de que os sistemas estejam a criar resultados discriminatórios, especialmente contra as minorias. Há casos de pessoas de cor a serem identificadas como culpadas erradamente pelo reconhecimento facial sem que tenham estado ligadas a qualquer ato criminoso.
Um estudo de 2018 do MIT Media Lab concluiu que produtos de reconhecimento facial da IBM, Microsoft e Face++ eram mais precisos a identificar sujeitos homens do que mulheres, com o Face++ a ter 20,1% de diferença na precisão entre géneros. O sistema também apresenta piores resultados quando tenta identificar sujeitos com peles mais escuras, com 93,6% das caras mal reconhecidas pela Microsoft a serem de mulheres negras.
Caitlin Seeley George, do grupo de defesa de direitos digitais Fight For The Future, sistematiza: “Isto é tecnologia que está a ser usada num sistema que aumenta a discriminação e acelera processos que são racistas. Sabemos que não é possível usá-la de forma segura e que vai ser aplicada maioritariamente em casos que vai resultam em mais mal do que bem”.