Um grupo de investigadores da Universidade de Harrisburg, na Pensilvânia, EUA, diz ter desenvolvido um software de reconhecimento facial que “prevê um criminoso”. “Com 80% de precisão e sem tendências raciais, o software pode prever se alguém é um criminoso com base apenas numa imagem do rosto”, lê-se no artigo de divulgação da própria universidade. “O software destina-se a ajudar a aplicação da lei a prevenir crimes.”
“Já sabemos que as técnicas de aprendizagem das máquinas podem superar os seres humanos numa variedade de tarefas relacionadas com o reconhecimento facial e a deteção de emoções”, disse Roozbeh Sadeghian, um dos autores. “Esta pesquisa indica o quão poderosas estas ferramentas são, mostrando que estas podem extrair recursos mínimos de uma imagem.”
Depois do anúncio da universidade sobre este tipo de tecnologia, mais de mil e setecentos académicos assinaram uma carta exigindo que a pesquisa não seja publicada.
Um dos participantes nesta pesquisa e desenvolvimento do software é Jonathan W. Korn, um ex-polícia do Departamento de Nova Iorque. “O crime é uma das questões mais importantes da sociedade moderna. Mesmo com os atuais avanços, as atividades criminosas continuam a assustar as comunidades ”, disse Korn. “O desenvolvimento de máquinas capazes de executar tarefas cognitivas, como identificar a criminalidade da pessoa a partir de uma imagem, permitirá uma vantagem significativa para as agências de aplicação da lei e outras agências de inteligência, para impedir a ocorrência de crimes nas áreas designadas.”
Mas os signatários da carta aberta da Coalition for Critical Technology não concordam. “Tais alegações têm como base premissas, pesquisas e métodos doentios que numerosos estudos desmentiram ao longo dos anos. Estas alegações desacreditadas continuam a ressurgir”, lê-se na carta. O grupo sugere que pessoas que pertencem a algumas minorias étnicas são tratadas com mais severidade no sistema de justiça criminal, a cuja base de dados o software foi buscar informação, distorcendo os dados sobre a aparência de um “suposto” criminoso.
Como a própria carta refere, o estudo da Universidade de Harrisburg não é o primeiro neste sentido e a maioria dos estudos que seguem esta diretriz estão a ser criticados pelas suas características racistas e pouco fiáveis. Na semana passada, um exemplo de como estes softwares falham tornou-se viral no Twitter, quando um especialista de Inteligência Artificial “pixalizou” uma fotografia de Barack Obama com um tom de pele branco. O software, tendo por base a foto desfigurada, associou a um rosto que não era o de Obama.
A Universidade de Harrisburg e os autores da pesquisa preparavam-se para publicar este estudo num livro, através da Springer Nature, que entretanto prometeu não o fazer sem fornecer mais pormenores sobre a pesquisa.
A universidade, num comunicado de imprensa, sublinha que o documento está a ser atualizado “para tratar de preocupações”, e que, apesar de defender a liberdade académica, esta pesquisa “não reflete necessariamente as visões e objetivos da universidade”.