Em tempos de hiper-estimulação, sabemos que estamos perante um tema relevante quando este sobrevive ao trending topic hype. É o caso da sobre-mencionada Inteligência Artificial (IA), nomeadamente a generativa. No final de maio, enquanto o ChatGPT lançava a sua última versão, já eram vários os empresários (e não só) de todo o mundo que assinavam uma carta a solicitar uma “pausa” no seu desenvolvimento. Entretanto, enquanto este artigo foi escrito, não só a Microsoft já ampliava o alcance do seu Bing on steroids com o próprio ChatGPT incorporado, como também a Google lançava o seu Bard na Europa e a Meta falava sobre inteligência multimodal (imagem, para além de texto) integrada. E, provavelmente, enquanto o leitor estiver a ler este texto na Exame, mais alguns progressos geométricos já poderão ter acontecido.
O filósofo e historiador Yuval Noah Harari defende que a IA “pirateou o sistema operativo da nossa civilização”, como afirmou recentemente num ensaio publicado pelo The Economist, o que nos estaria a levar para um lugar muito distante das ambições sustentáveis da agenda corrente. Será que o “sonho pós-Antropoceno”, onde estaríamos a tentar contornar os efeitos desta Era inteiramente marcada pela intervenção humana, estaria na verdade a tornar-se uma “realidade pós-humana”? Podemos manter o equilíbrio entre sermos engolidos por uma narrativa não-humana, alienígena, e adotarmos a melhoria das competências digitais à escala global a nosso favor? Será que devemos mesmo “interromper” o desenvolvimento da IA, se é que isso é sequer possível? Seria a regulação a melhor resposta?
Levámos estas questões para uma Collision Talk (regularmente promovida pelo Ecossistema de Inovação da Nova SBE) com o tema tema “Should we Really Stop AI?” para ver o que delas sairia. E a mistura de humanismo crítico, contexto técnico, receção ponderada à mudança e visão distópica (mas baseada em evidências) dos nossos diferentes convidados evidenciou o mais importante deste tema tão recente no nosso imaginário: ainda é preciso conversar muito sobre ele antes de sairmos por aí a aceitar verdades estabelecidas. E saí do nosso campus, rumo à imensidão do Atlântico à nossa frente e com a cabeça a fervilhar, com duas grandes questões:
1. Sob a lógica da inovação consequente, que é a que necessitamos neste momento, ainda falta experimentação controlada, feedback loop, melhorias intencionais orientadas para impacto positivo e muita antevisão das “unintended consequences” para a inteligência artificial generativa em escala social. Ou seja, inovação enquanto ferramenta da gestão contemporânea, tanto em estratégia quanto em execução.
2. Sob a lógica humana, talvez estejamos a repetir o ciclo habitual: encontrar; construir; ficar mesmerizado; e, depois disso (e graças a isso), não saber lidar com os “aliens” que emergem do processo. Pois temos a tendência de ser bons num paradoxo peculiar: por um lado, confundimos aquilo que pode ser a realidade com a forma como ela é representada (algo que atormenta formalmente os Ocidentais desde o Mito da Caverna de Platão); por outro, o nosso fascínio aterrador por ameaças inteligentes, maiores do que nós, e perante as quais tendemos a vitimizar-nos (a ideia da ficção científica, que impactou a cognição humana de uma forma definitiva a partir do romance Frankenstein, de Mary Shelley, uma obra basilar para a definição do conceito).
A nossa velocidade de absorção, processamento e resposta às reflexões desta magnitude não consegue acompanhar os factos que nos são apresentados neste momento. Tivemos milénios de tradição oral a partir de Platão, e séculos de tradição escrita a partir de Mary Shelley para construir sentido crítico, e especular futuros, a respeito deste desconhecido que nos foi apresentado enquanto “real”, ou “possível”. Não tivemos a mesma chance com a inteligência artificial generativa.
Enquanto não percebemos com maior perspetiva até onde a Inteligência Artificial nos pode levar, parece-me que não há nada de mais relevante a ser feito do que abraçar esta realidade em construção e aplicar a máxima da inovação consequente: testar, medir, aprender e repetir – até percebermos como nos beneficiamos todos, e quais as consequências negativas que devem ser minimamente antevistas e mitigadas.