O arranque de 2023 foi marcado pelo lançamento do ChatGPT, a aplicação de Inteligência Artificial da OpenAI. Em dois meses, alcançou mais de 100 milhões de utilizadores e criou uma torrente de notícias e artigos futuristas. Talvez perdido entre o avanço tecnológico e o potencial disruptivo, o debate sobre os riscos recebeu menos atenção. Inês Hipólito é professora de Filosofia de Inteligência Artificial, na Universidade Macquarie, em Sydney, dando especial atenção a questões de ética e de diversidade. Em entrevista à VISÃO, explica como estes modelos de linguagem replicam narrativas dominantes e podem agravar problemas de sub-representação, alertando para a necessidade de regular o fenómeno.
A Inteligência Artificial entrou repentinamente no debate público. Em que ponto está o desenvolvimento e a investigação dos grandes modelos de linguagem?
A Inteligência Artificial (IA) tem estado a desenvolver-se há bastante tempo. Mas, como tem muito que ver com trabalho de bastidores, as pessoas não se apercebem tanto, apesar de estar permanentemente presente nas nossas vidas. Foi com o ChatGPT que as coisas se modificaram porque, pela primeira vez, a IA está disponível de uma forma explícita, gratuita e personalizada. Costumo comparar com a revolução da internet ou dos telemóveis. As pessoas têm acesso a tecnologias que mudam o seu comportamento e a sua relação psicológica com várias áreas das suas vidas, incluindo a profissional. Isso deixa-as mais interessadas e mais alerta.
Quando o ChatGPT apareceu, falou-se muito de mudanças radicais, em específico no mercado de trabalho. Há alguma área em que já estejamos a sentir esses efeitos?
Uma das áreas em que é extremamente evidente que teve um efeito imediato é a educação. O ChatGPT e os grandes modelos de linguagem têm uma capacidade fenomenal para passar testes difíceis, de formas que até ultrapassam os melhores estudantes. Nos nossos departamentos académicos temos tido conversas sobre qual será a melhor maneira de lidar com o ChatGPT, porque os estudantes começam a utilizá-lo nos seus trabalhos e é muito difícil perceber até que ponto os trabalhos são genuinamente feitos pelos alunos. Será possível que os alunos usem o ChatGPT de uma forma que eleve os seus conhecimentos ou deveríamos proibi-lo totalmente? É uma questão que está viva nas universidades.
Alguns dos desenvolvimentos sociais que alcançámos podem ser revertidos ou tornados mais lentos se os modelos captareme propagarem essas narrativas dominantes, reforçando estereótipos
Avançando para a sua área de investigação, uma pergunta básica: será possível um algoritmo algum dia ser neutro?
Creio que será muito difícil. O argumento de que a tecnologia é neutra tende a beneficiar os mercados, porque é o que as empresas de tecnologia querem – inovar sem regulação vinda de um governo ou de uma instituição internacional. Esse debate está mais vivo porque esta tecnologia aprende sobre nós, guarda dados, vai-se modificando e ajustando aos nossos comportamentos. Até ao nível do desenvolvimento se nota que os problemas aos quais queremos dedicar o nosso tempo, a nossa energia e os nossos fundos são definidos por uma narrativa dominante. E essa narrativa é ocidental. E depois, todo o design, o desenvolvimento e a implementação da IA estão a ser programados por grupos sem muita diversidade.
E que vieses ou preconceitos são mais preocupantes? A quais deveríamos estar mais atentos, por ficarem expostos nas respostas destes modelos de linguagem?
O modelo de linguagem repete uma narrativa dominante. Alguns dos desenvolvimentos sociais que alcançámos podem ser revertidos ou tornados mais lentos se os modelos captarem e propagarem essas narrativas dominantes, reforçando estereótipos.
Mas, em específico, de que narrativas estamos a falar? Questões raciais, culturais, sexismo, papel de cada género?
Estamos a falar de hierarquias sociais e de segregação, que podem ter vários níveis, tal como enumerou. Podem ser raciais, de género, de todos os grupos que fazem parte das chamadas minorias, que geralmente estão menos representadas na ciência e na tecnologia, com menos presença nos manuais, nos prémios… Quando analisamos a História das várias áreas de conhecimento – ciência, filosofia, literatura –, determinados grupos estão sub-representados. Estes grandes modelos de linguagem vão propagar essa falta de representatividade. Há uma tendência para o ChatGPT descrever um fenómeno de interesse científico, enumerando simplesmente o trabalho desenvolvido às mãos de uma narrativa dominante. Isto afeta todas as áreas, literatura, arte, ciência, tecnologia…
Parte do problema está logo na fonte de informação da IA? Há também uma sub–representação de línguas e culturas?
Claro que sim. Grande parte da ciência e do desenvolvimento tecnológico já é feita em inglês. Indo buscar mais conhecimento em inglês, o ChatGPT terá uma sub-representação do conhecimento gerado, por exemplo, em universidades em África, na América do Sul ou na Ásia. Tudo o que não seja o mundo anglo-saxónico. Conhecimento desenvolvido por cientistas e filósofos portugueses…
Como é que se corrige esse viés do algoritmo? A OpenAI foi impondo limites àquilo que o ChatGPT pode dizer, mas há alguma solução mais estrutural que não seja impedir os modelos de responderem? Só alargando a base de aprendizagem?
Será quase impossível. Mais do que um espelho do que somos, a tecnologia é uma fonte. Como poderíamos melhorar essa interação sem regras de cima para baixo? O ideal seria termos uma sociedade menos segregada e mais inclusiva. Nesse sentido, é muito importante – e não é para amanhã – que apostemos na educação. Principalmente de pessoas ligadas ao desenvolvimento de IA. Estou num dos programas de IA aqui na Universidade em Sydney e a ética é uma das partes mais importantes. Colocar esses problemas éticos na sala de aula, fazendo com que sejam tão ou mais relevantes do que aprender a programar.
Se as empresas continuarem a limitar as respostas da IA, não arriscamos acabar com uma produção de informação mais conservadora e desinteressante?
Provavelmente. Temos tido notícias de que o ChatGPT está a ficar menos inteligente. Outra questão é a regulação. Quem deve regular eticamente ou quem deve colocar essas limitações?
São os Estados?
Recentemente, o CEO da Google propôs que fossem as empresas a regular, o que é surpreendente tendo em conta o conflito de interesses. A não regulação é interessante para os mercados, mas não protege os utilizadores. E os utilizadores mais à mercê são os mais precários. Quem deve regular? A UE é a entidade que mais tem feito nessa área, os EUA estão muito atrás, a Austrália também. Mas estamos a entrar numa nova era e precisamos de olhar para esta nova circunstância com urgência. Quase diria com tanta urgência como para o aquecimento global e a crise ambiental. Nessa área foram criadas entidades globais que reúnem pessoas debaixo de um chapéu, para dialogar e chegar a resoluções.
Se grande parte da massa crítica for criada a partir de IA, ficamos fechados num loop, em que o progresso será mais lento
Aconteceu o mesmo com as armas nucleares e o genoma humano. Deve ser equiparado a esses momentos?
Na minha opinião, sim. Temos de criar uma entidade global. Os Estados e os governos vão demorar muito tempo e não estão preparados. Não têm o conhecimento para intervir e, enquanto isso não acontece, haverá um impacto social grande. Não só vai afetar o trabalho diário das pessoas – que vai modificar-se brevemente – mas também a educação como cidadãos.
Há um dilema: regular mesmo que, por exemplo, o Estado chinês não o faça? Ou é um argumento que dá jeito às empresas?
Tem sido sempre assim. No desenvolvimento da bomba atómica, Einstein disse que estava arrependido de ter aconselhado o governo americano. Com a IA vemos essa história a repetir-se. E agora estamos a falar de uma tecnologia ativa, que recolhe informação e cria um feedback loop que influencia como vivemos. É interessante para as empresas de tecnologia porque vai gerar mais capital e riqueza. O que poderá acontecer é que o mundo será governado pelos milionários da IA.
Estes modelos de linguagem produzem muita informação. A evolução poderá ser exponencial, o que significa que a IA começará a varrer o que ela própria criou. O que significará para a qualidade desses conteúdos IA?
É terrível. Significa que teremos menos evolução do conhecimento. É um reciclar do conhecimento que já existe no mundo. O que faz avançar o conhecimento é a criatividade, pensar fora da caixa, ter novas perspetivas. A Ciência avança por revoluções e é muito lenta, porque tendemos a ficar com os nossos paradigmas. Já é assim com as mentes mais brilhantes e criativas na academia e na indústria. Se grande parte da massa crítica for criada a partir de IA, ficamos fechados num loop, em que o progresso será mais lento.
Falou de criatividade. Esta IA é inteligente? Uma grande parte do meu trabalho é reunir informação, trabalhá-la e sintetizá-la. Sobrevalorizamosa nossa inteligência?
Depende de como definimos inteligência. Se for desempenhar determinadas tarefas, teremos de concluir que é inteligente. Se isolarmos tarefas, muitos sistemas já são inteligentes. Mas se inteligência for interagir com um mundo exterior sempre em mudança, em que temos de o navegar e lidar com surpresas – de modo crítico também –, então o ChatGPT não é inteligente. Por exemplo, esta interação que estamos a ter implica ler significados que não são explícitos na linguagem.
Olhamos para estes fenómenos de forma excessivamente determinista? Falamos de IA como se ela estivesse aqui e não tivéssemos escolha, enquanto sociedade, sobre como lidar com os algoritmos.
Somos demasiado passivos, mas isso também tem que ver com as campanhas de marketing feitas à volta das tecnologias. Há um enorme hype que cria esta ideia fatalista de que não há nada a fazer, que não temos poder sobre a IA. São circunstâncias favoráveis às empresas. A noção de controlo está a ser posta em causa, para que as pessoas não se mobilizem nem pensem criticamente acerca das consequências. Interessa que esta tecnologia seja desenvolvida sem limitações. Esta ideia fatalista é lançada pelas empresas responsáveis por esta tecnologia.