A Unbabel, empresa portuguesa especializada em tradução assistida por Inteligência Artificial, lidera um consórcio de mais de vinte entidades, apoiado pelo PRR, para a IA responsável. No âmbito deste consórcio, por exemplo, estão a ser traduzidos e classificados ficheiros clínicos. O grupo integra Instituições como a Fundação Champalimaud ou a sociedade de advogados Vieira de Almeida. Paulo Dimas mostra-se satisfeito com a regulamentação europeia, conhecida como AI Act, que deverá ser aprovada já no próximo mês de junho (conheça o que está em causa no artigo exclusivo)
Justifica-se toda esta preocupação relativamente às ferramentas de Inteligência Artificial?
Nunca aconteceu termos uma tecnologia tão transversal, tão transformadora e que passa por um processo tão rápido. Daqui a dois ou três anos vamos poder olhar para isso e perceber que já estabilizou, mas agora estamos num ponto em que as coisas podem evoluir num sentido ou noutro. De facto, a competitividade destas empresas é altíssima! A Google está a ver o seu modelo de negócio afetado. Há uns tempos a empresa ia à frente e foi por isso que o Musk [Elon Musk, fundador da OpenAI, atualmente parceira da Microsoft] se afastou, pensou que não teria hipóteses. Só que as posições inverteram-se. Agora é a Google que está a tentar apanhar o comboio e é a OpenAI a liderar.
Que papel espera que a Unbabel, como líder do consórcio para a IA responsável, venha a ter nesta discussão?
No Centre for Responsible AI, o consórcio que formámos com dez start-ups, cinco líderes de indústria, centros de investigação e ainda uma sociedade de advogados, a VdA que estará a trabalhar na componente legislativa, temos como objetivo estabelecer a liderança nestas áreas e contribuir para o movimento de regulação à escala europeia. A outra vertente é fazer com que estes cerca de vinte produtos que serão desenvolvidos – que vão desde o aumento da eficiência dos hospitais nas altas médicas ao acelerar dos ensaios clínicos e reduzindo os seus riscos, ao apoio ao cliente, fazendo com que as interações possam ser multilingues – sejam todos eles orientados segundo os princípios da IA responsável. Existem aqui tecnologias que são muito importantes e que dependem da confiança que se tem nestes modelos.
Que aspetos há a melhorar?
O ChatGPT por vezes gera texto que faz todo o sentido, lemos e acreditamos no que ali está, mas é completamente falso. É aquilo a que chamamos alucinações. A IA responsável assume o papel de detetar estas alucinações, através da explicabilidade. Ou seja, o sistema tem de explicar quando apresenta uma informação que não está certa, que foi inventada. Outra questão essencial é a garantia de que todas as pessoas são tratadas de forma igual, a dita fairness.
Porque são tão poderosos estes sistemas?
O ChatGPT foi o sucesso que foi porque a OpenAI fez um avanço muito significativo e que se julgava ser muito difícil. Trata-se da tecnologia designada como Reinforcement Learning Using Human Feedback (ou Aprendizagem por Reforço Usando Feedback Humano) que passa por colocar pessoas a fazer a classificação das respostas. Isso foi feito primeiro a uma escala muito pequena, agora com muito mais pessoas. Com os humanos a darem instruções ao modelo, foi desaparecendo o conteúdo com preconceitos subjacentes. Cada vez é mais difícil encontrar modelos com vieses. Os modelos destas grandes empresas têm uma espécie de cercas que protegem contra os comportamentos indesejados. Mas quando tornamos isto num sistema em open source e sem regulação qualquer pessoa pode criar um modelo de IA que permita fabricar uma bomba caseira. .
Mas todos nós, humanos, temos viseses …
Exato! É um problema muito difícil de resolver. Uma forma de o fazer é partindo, por exemplo, da Carta das Nações Unidas. E é também por isso que se defende que tal como há um acordo mundial para as armas nucleares, também deve haver um acordo relativamente à IA, que pode ter implicações na guerra e na democracia, que pode ser posta em risco, com conteúdos falsos, altamente personalizados. É uma Cambridge Analytica 2.0. E isto é um risco para as democracias de todos os países. Não podemos deixar que aconteça.