O objetivo do emojify.info, um site criado por investigadores académicos, é levantar a discussão sobre a utilização e riscos das tecnologias de reconhecimento facial e de identificação de emoções em rostos humanos. O tema não é consensual e se, por um lado, há os defensores que elaboram vários cenários em que estas soluções podem ser usadas, por outro surgem os opositores que lembram várias questões associadas com a privacidade dos utilizadores e como a inexatidão do reconhecimento pode aumentar clivagens raciais.
Alexa Hagerty, da Universidade de Cambridge, é lidera a equipa de investigação que desenvolveu o site onde se emprega “uma forma de reconhecimento facial, mas que vai mais além porque além de identificar apenas as pessoas, tenta ler as emoções, interpretar sentimentos a partir dos rostos de cada um”.
A investigadora alerta que este tipo de sistemas já é mais comum do que o que se julga, sendo aplicado em contextos de entrevista de emprego, deteção de padrões de consumo, segurança de instalações como aeroportos e até na educação para perceber se os alunos estão a prestar atenção ou não.
“Precisamos de ter conversas públicas muito mais alargadas e deliberação sobre estas tecnologias” complementa Hagerty, explicando que o site “não recolhe informações pessoais e todas as imagens são guardadas no dispositivo do utilizador”, cita o The Guardian.
Naquela página, os utilizadores são convidados a usar as câmaras dos seus computadores e fazer expressões faciais para enganar o sistema e noutro jogo é possível explorar como os sistemas de reconhecimento podem ter dificuldades em ‘ler’ as expressões corretamente.
Vidushi Marda, da organização de defesa dos direitos humanos Article 19, explica que é necessário fazer uma pausa no crescente mercado de sistemas de reconhecimento de emoções, alegando que “o uso [destes] sistemas é profundamente preocupante uma vez que não são apenas baseados em ciências desacreditadas e discriminatórias, mas também são fundamentalmente inconsistentes com os direitos humanos”.