“Atenuar o risco de extinção devido à Inteligência Artificial [IA] deve ser uma prioridade global a par de outros riscos de escala societal como as pandemias e a guerra nuclear”. É esta a declaração publicada pelo Centro para a Segurança da Inteligência Artificial, uma organização sem fins lucrativos, e assinada por algumas das figuras mais proeminentes da área: Demis Hassabis, diretor executivo da Google Deepmind; Sam Altman, diretor executivo da OpenAI; Geoffrey Hinton, pioneiro da área e ‘padrinho’ do sistemas avançados de IA; Yoshua Bengio, vencedor do Prémio Turing; Dario Amodei, diretor executivo da Anthropic; e Eric Horvitz, cientista-chefe da Microsoft, entre outros. Luís Moniz Pereira, professor emérito da Universidade Nova de Lisboa, que já tinha assinado a carta aberta que pedia uma pausa no desenvolvimento de sistemas avançados de IA, consta também nesta lista de signatários.
Segundo o Centro para a Segurança da IA, “torna-se difícil dar voz às preocupações sobre alguns dos riscos mais severos dos sistemas avançados de IA”. A declaração e os seus signatários pretendem assim abrir a discussão sobre o tema e sublinhar que também eles estão preocupados com os riscos que IA representa para o futuro da sociedade.
“O objectivo é também criar um conhecimento comum do número crescente de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”, lê-se na página da iniciativa. Dan Hendrycks, diretor executivo do centro, sublinha que a declaração sucinta foi criada para tornar claro o alerta, segundo o The New York Times.
A declaração, que na versão original em inglês tem apenas 22 palavras, é a mais recente iniciativa com signatários de alto perfil que coloca em destaque o impacto que as ferramentas avançadas de Inteligência Artificial poderão ter, sobretudo numa fase em que parece existir uma espécie de ‘corrida’ entre as maiores tecnológicas do mundo para criar sistemas cada vez mais avançados – como são exemplos o ChatGPT da OpenAI e o Bard da Google.
Algumas das preocupações a curto prazo estão relacionadas com o enviesamento de dados nos algoritmos por trás destes sistemas de IA, o impacto que poderão ter na eliminação de postos de trabalho e na disseminação de informações falsas, mas a longo prazo há um receio de que a Inteligência Artificial possa superar a inteligência humana e, por consequência, torna-se um risco existencial para a Humanidade. Geoffrey Hinton, numa conferência recente organizada no MIT, expressou mesmo a hipótese de “a humanidade ser apenas uma fase temporária na evolução da inteligência”.
Recentemente, a OpenAI defendeu mesmo a criação de uma organização internacional que inspecione os desenvolvimentos de IA feitos pelas maiores empresas do mundo. Uma organização que funcionaria de forma semelhante à Agência Internacional de Energia Atómica.