A União Americana pelas Liberdades Civis (ACLU no acrónimo em inglês), uma organização não governamental, apresentou uma queixa em nome de Robert Williams, um homem do Michigan, que foi detido erradamente em janeiro, acusado de um crime ocorrido em 2018. A indicação de que Williams seria suspeito foi dada por um sistema de reconhecimento facial e as autoridades, apesar de não terem qualquer outra evidência, avançaram com a detenção na mesma.
Em outubro de 2018, câmaras de vigilância de uma loja de luxo mostram um homem negro, com um boné e um casaco escuro, a roubar cinco relógios avaliados em quase quatro mil dólares, cerca de 3500 euros ao câmbio atual. Em março de 2019, o sistema de reconhecimento facial identifica Robert Williams, pela sua foto na carta de condução, como um potencial suspeito do roubo. Ao apresentar Williams, juntamente com outros cinco suspeitos, ao segurança que estava presente no dia do roubo, mas que não assistiu à cena e só a viu pelas câmaras, a polícia recebe a identificação positiva por parte deste. Assim, em janeiro deste ano, as autoridades usam o mandado de detenção e avançam com a prisão de Williams.
Durante o interrogatório no dia seguinte à detenção, as autoridades admitem estar perante a pessoa errada e que Williams seria inocente. Um dos agentes envolvidos chegou a admitir que “o computador deve estar errado”, assumindo que o homem não teria cometido o roubo.
A queixa da ACLU revela que o suspeito estava a usar um boné dos St. Louis Cardinals e que Williams nunca teve um boné destes e não é adepto daquela equipa, não gostando sequer de basebol. A ACLU revela que a cor de pele foi determinante para a identificação de Williams como suspeito.
Este caso vem dar força ao argumento de que os sistemas de reconhecimento facial ainda têm muito por onde melhorar. O argumento surge na sequência de vários estudos que demonstram que estas soluções apresentam mais probabilidade de gerar erros quando tentam identificar suspeitos negros. Uma análise do Instituto de Standards e Tecnologia dos EUA (NIST) conclui que o reconhecimento facial pode ser considerado preciso na identificação de homens brancos, mas apresenta uma tendência 10 a 100 vezes maior de gerar falsos positivos no caso de rostos pessoas asiáticas ou negras.
A ACLU liga estes reconhecimentos errados e a adoção massiva destes sistemas ao aumento da brutalidade policial que tem originado manifestações por todo o mundo. Recorde-se que várias tecnológicas recuaram na cedência destas soluções às autoridades, na sequência destes protestos.