Já é conhecido o plano da Comissão Europeia (CE) para a regulação de diferentes sistemas e aplicações de Inteligência Artificial (IA). As propostas – versão completa aqui, versão resumida aqui – foram reveladas nesta quarta-feira e definem o conjunto de regras e requisitos que cidadãos, empresas e governos poderão ter de cumprir na utilização de mecanismos de IA por forma a que os direitos dos cidadãos não sejam colocados em causa. A proposta terá ainda de ser discutida e aprovada, tanto pelo Conselho Europeu como pelo Parlamento Europeu, processo que poderá demorar vários meses ou até mesmo anos.
A CE explica que decidiu seguir uma abordagem baseada no risco, ou seja, as regras e limitações serão maiores quanto mais risco os sistemas de IA representarem para os cidadãos europeus. No topo da ‘pirâmide’ estão os chamados “riscos inaceitáveis”, ou seja, sistemas de IA que de acordo com a análise da Comissão são uma “ameaça clara” à segurança, direitos e sustento das pessoas – e como tal, são sistemas que devem ser banidos.
Deste grupo fazem parte os chamados sistemas de pontuação ou crédito social (social scoring), que preveem a atribuição de uma classificação a pessoas ou empresas, baseada num variado grupo de fontes de informação. Determinadas ações permitem melhorar a pontuação (como fazer doações para a caridade, p.ex.), enquanto outras (cometer um crime, p.ex.) retiram pontuação. Depois, dependendo da pontuação geral, uma pessoa poderá ou não aceder a determinados serviços (se a pontuação for baixa, pode ser-lhe negado crédito à habitação, p.ex.). Um elemento importante: de acordo com a proposta, só os sistemas de pontuação social de “propósito geral feitas por autoridades públicas” devem ser banidos.
Mas há mais utilizações de Inteligência Artificial que, segundo a proposta, devem ser banidas: sistemas ou aplicações que manipulem o comportamento humano, através de técnicas subliminares, para contornar o livre arbítrio (como encorajamento de comportamentos perigosos) ou que explorem grupos vulneráveis (crianças, pessoas com deficiências, entre outros) para a prática de comportamentos que as prejudiquem a nível psicológico ou físico. Neste capítulo, não fica claro, por exemplo, se isso inclui publicações de redes sociais e outras plataformas de internet.
Reconhecimento facial por videovigilância é de “alto risco”
A Comissão Europeia identifica, depois, várias utilizações de IA consideradas como de “alto risco”. E é aqui que entram as tecnologias de reconhecimento facial remoto ou, como lhes chama a CE, sistemas de identificação biométrica. Segundo o documento apresentado, todos os sistemas de reconhecimento facial remoto (como a videovigilância com reconhecimento facial) são considerados de alto risco. “A sua utilização em tempo real em espaço de acesso público para propósitos de forças de segurança é, por princípio, proibido”, explica a CE.
Por espaço de acesso público, explica a CE, entende-se qualquer lugar físico que seja acessível à população, independentemente se é necessário cumprir determinadas condições de acesso (como ter bilhete ou aquele ser um espaço de uma empresa).
Ou seja, o uso de videovigilância com reconhecimento facial por parte da polícia, em massa, é algo que a Comissão também quer ‘banir’. Mas estão contempladas exceções: se as forças de segurança estiverem à procura de uma criança desaparecida, se for para prevenir um ataque terrorista ou outra ameaça iminente ou se for para localizar e identificar o praticante ou o suspeito de um crime grave, nesse caso então as polícias poderão fazer uso de sistemas de videovigilância com reconhecimento facial. Mas, nestas exceções, terão de ter a autorização prévia de um tribunal ou de uma entidade independente para definir durante quanto tempo, onde e que bases de dados serão utilizadas na procura (salvo exceções).
“O uso de sistemas de IA para identificação biométrica remota em tempo real de pessoas naturais em espaço de acesso público para fins das forças de segurança é considerado particularmente intrusivo dos direitos e liberdades das pessoas em causa, ao ponto de poder afetar a vida privada de uma grande parte da população, evocando um sentimento de vigilância constante e indiretamente dissuadindo o exercício da liberdade de ajuntamentos e outros direitos fundamentais”, sublinha a CE a propósito deste tema em específico.
Apesar das limitações que coloca na utilização de sistemas de videovigilância com reconhecimento facial às polícias, a Comissão Europeia explica que as mesmas não se aplicam à utilização de sistemas de videovigilância com reconhecimento facial em espaços públicos por outras entidades, mesmo que sejam “autoridades competentes”.
Outras utilizações de alto risco
A CE considera ainda de alto risco todas as implementações de Inteligência Artificial feitas em infraestruturas críticas, no ensino, em componentes de segurança de hardware (como robôs de cirurgia), no emprego (como análise de currículos), em serviços privados essenciais ou serviços públicos (como a atribuição, ou não, de um crédito à habitação), em serviços de forças de segurança que podem interferir com os direitos fundamentais das pessoas (avaliação de provas de crimes), em tarefas de gestão de migração, asilo ou controlo de fronteiras e ainda na área judicial.
Todas as aplicações e sistemas de IA que pertençam a estas categorias serão obrigadas a cumprir requisitos específicos: por exemplo, os responsáveis pelo sistema terão de garantir que as bases de dados são de “alta qualidade” para minimizar riscos de discriminação, são sistemas que terão de ter registo de atividade, terão de dar ao utilizador final informação clara e adeaquada, terão de ter supervisão humana, assim como garantir elevados níveis de segurança e eficácia.
Usos de IA de risco mínimo ou limitado
Estes são os sistemas e aplicações de IA que a Comissão Europeia não considera tão perigosos e, como tal, não estão sujeitos a um grupo extenso de regras de cumprimento. Como ferramentas de risco limitado, a CE dá o exemplo de robôs de conversão (chatbots), sendo que neste caso o principal requisito é o da transparência, ou seja, os chatbots têm de deixar claro para os utilizadores de que eles não estão a interagir com uma pessoa, mas sim com uma máquina.
Já os sistemas de risco mínimo são mecanismos de IA usados em videojogos e em filtros de spam, exemplifica a Comissão. “A grande maioria dos sistemas de IA pertencem a esta categoria. A proposta de regulamentação não intervém nesta área, pois são sistemas de IA que representam um risco mínimo ou inexistente para os direitos e segurança dos cidadãos”, lê-se no resumo da CE.