A lista de signatários é de luxo: Elon Musk (CEO da Tesla e SpaceX), Steve Wozniak (cofundador da Apple), Jaan Tallinn (fundador do Skype), Yoshua Bengio (vencedor do Prémio Turing), Stuart Russell (diretor do centro de sistemas inteligentes da Universidade de Berkeley, EUA), Emad Mostaque (diretor executivo da startup Stability AI, responsável pelo popular modelo Stable Diffusion) e Valerie Pisano (presidente do MILA, instituto canadiano focado em IA), só para nomear alguns.
A estes nomes juntam-se muitos outros, incluindo os dos portugueses Luís Moniz Pereira (professor emérito da Universidade Nova de Lisboa), Luís Caires e João Leite (professores na Univ. Nova de Lisboa), João Emílio Almeida e Alípio Jorge (membros do Laboratório de Inteligência Artificial e Ciência de Computadores da Universidade do Porto) e Ernesto Costa (professor da Universidade de Coimbra).
E todos querem o mesmo: “Uma pausa imediata para todos os laboratórios de Inteligência Artificial, pelo menos durante seis meses, no treino de sistemas de IA mais poderosos do que o GPT-4”. O GPT-4 é, recorde-se, o mais recente modelo de Inteligência Artificial apresentado pela OpenAI e que tem uma capacidade de escrita semelhante à de um humano, estando por trás do famoso sistema de conversação ChatGPT.
Os mais de 1100 signatários da carta que tem como título “Pausem as experiências gigantes de IA” argumentam que os sistemas de IA com inteligência competitiva humana (isto é, que mostram capacidades próximas às dos humanos em determinadas tarefas) podem representar “um risco profundo para a sociedade e a humanidade”. “Infelizmente, o nível de planeamento e gestão [com o cuidado devido] não está a acontecer, apesar de nos meses recentes termos visto laboratórios de IA focados numa corrida fora de controlo para desenvolver e lançar mentes digitais cada vez poderosas”.
As personalidades do mundo da tecnologia – que contam ainda com engenheiros da Deepmind, Facebook, Amazon e Microsoft – defendem que sistemas de IA poderosos só devem ser desenvolvidos assim que houver confiança em que “os seus efeitos vão ser positivos e os seus riscos geriveis”.
A pausa no desenvolvimento de sistemas de IA avançados deve, segundo os próprios, ser pública e verificável. “Os laboratórios de IA e os especialistas independentes devem usar esta pausa para juntos desenvolverem e implementarem um conjunto de protocolos partilhados e seguros de desenho de IA”.
Se uma pausa nos trabalhos não for feita a curto prazo, então defendem que os governos devem intervir e criar uma moratória (uma proibição temporária).
O grupo recomenda ainda que programadores e políticos trabalhem em conjunto na criação de sistemas de governação de Inteligência Artificial e que incluam a criação de autoridades reguladoras de IA, monitorização de avançados sistemas de IA, criação de marcas de água que ajudem a distinguir conteúdos criados de forma sintética (por sistemas de IA) e criação de um sistema de atribuição de responsabilidade em caso de danos causados por sistemas de IA.