A evolução da humanidade é, em grande parte, uma história de medo e coragem. Perante o desconhecido, escolhemos avançar, e essa determinação levou-nos a conquistas extraordinárias. Um exemplo marcante é o desenvolvimento da Inteligência Artificial (IA). Desde os primeiros modelos computacionais de redes neurais na década de 1940, baseados em algoritmos matemáticos, até ao primeiro Regulamento sobre Inteligência Artificial (IA), aprovado em abril de 2024 e que entrou em vigor no início de agosto, a nossa jornada tem sido conduzida por uma procura contínua por inovação e ética.
A diretiva, que ainda não se encontra transposta para a legislação portuguesa, apresenta-se como um diploma que visa «promover uma IA de confiança dentro e fora da Europa, assegurando que os sistemas de IA respeitam os direitos fundamentais, a segurança e os princípios éticos».
A diretiva proporciona mais enquadramento legal, define melhor os níveis de risco e de boas práticas, e cria o Serviço Europeu para a IA, que supervisiona a aplicação do regulamento. Para quem opera neste segmento do mercado, isto significa um respaldo legal importante. E, felizmente, uma referência para alinhamento da visão das empresas tecnológicas sobre o futuro da IA.
No caso da Cegid e do seu Centro de IA em Portugal, que tenho liderado, desenvolve-se tecnologia sobretudo no domínio dos assistentes digitais, que têm a capacidade de executar ações nos sistemas para ajudar os utilizadores nas suas tarefas, respondem a questões do utilizador sobre os produtos, e clarificam até aspetos sobre os dados do utilizador. Na área de payroll, trabalha-se a IA orientada para a deteção de anomalias, por exemplo, no processamento de salários das empresas ou na gestão das obrigações fiscais.
Enquadrando estas duas tipologias no âmbito da diretiva, o primeiro caso corresponde aos sistemas de risco limitado, dado que é sobretudo com a qualidade dos outputs que se preocupa. O segundo, por seu turno, também, porque apesar de intervir na área de recursos humanos, não influencia as relações de trabalho, apenas analisa a qualidade dos cálculos efetuados na componente salarial ou fiscal.
No momento presente, em que a transposição se encontra por fazer na legislação portuguesa, e a regulamentação tecnicamente informada e detalhada ainda não existe, a dimensão ética de quem treina e afina os agentes emerge como fundamental. É sobretudo dela, e da sua defesa no dia-dia- que se criam condições para que os utilizadores finais possam confiar na qualidade dos outputs gerados, sejam análises, sumários ou relatórios de deteção de erros.
Isto, naturalmente, acarreta responsabilidades. E implica que se aprofunde a noção de inovação com um propósito, colocando as necessidades específicas dos negócios à frente do mero entusiasmo tecnológico, para assegurar que as soluções trabalham para os utilizadores e não o contrário. Centradas em apoiar os profissionais nas tarefas diárias. E em conformidade com a regulamentação europeia, em especial, nas vertentes da preservação e gestão da privacidade dos dados dos utilizadores, no tipo de análises efetuadas e controlo de qualidade dos resultados e conteúdos apresentados, por humanos.
Construir uma IA ética e centrada nas pessoas deve ser mais do que apenas um objetivo. Deve ser um presente quotidiano que nos motive a trabalhar melhor, todos os dias, para que mais e mais pessoas trabalhem também com mais segurança e produtividade, no seu dia-a-dia.