Adolfo Mesquita Nunes deixou a política ativa e o comentário político, mas continua a ser um observador atento da realidade. Não esconde a sua desilusão com as transformações operadas, na última década, no debate público, e com as suas consequências para a sociedade. Para o demonstrar, o advogado que se especializou em Direito da Inteligência Artificial, escreveu um livro com mais de 400 páginas para nos alertar sobre os riscos de cairmos naquilo que ele classifica como uma “algoritmocracia”. “Este livro é um manifesto político para persuadir as pessoas de que temos um problema”, avisa.
Como secretário de Estado do Turismo, entre 2013 e 2015, inovou com a promoção do País através de campanhas digitais. Nessa altura, o algoritmo foi útil e bom para o seu trabalho. Agora, lança um livro em que o algoritmo passou a ser o adversário. O que é que mudou, o algoritmo ou o Adolfo?
O algoritmo, com a vantagem extraordinária de permitir comunicar de forma muito personalizada com o destinatário, é uma arma espetacular de vendas e de promoção de um produto. Em vez de aborrecer o mundo inteiro com uma mensagem igual para todos, o algoritmo permitiu, por exemplo, promover o destino Portugal consoante os gostos da pessoa com quem comunicamos. O que procuro explorar no livro são os efeitos que essa personalização acaba por ter na vida política.

Como a Inteligência Artificial Está a Transformar as Nossas Democracias
Edições D. Quixote
(443 págs.)
De que maneira?
O que está em causa não é apenas o fechamento da nossa realidade, nem o facto de passarmos a consumir conteúdo informativo que permanentemente valida aquilo que já são as nossas opiniões. O que me preocupa é o facto de os algoritmos procurarem que nós estejamos o máximo de tempo possível agarrados a eles. Como? Dando-nos conteúdos que nos agarram. E sabemos que a natureza humana e o nosso cérebro são facilmente agarrados por conteúdos que nos polarizam, que nos radicalizam, que nos chocam, que nos indignam. Tudo isso tem consequências políticas.
Em que momento é que percebeu isso? O Tim Berners-Lee, o inventor da internet, escreve nas suas memórias que foi só em 2016, com o Brexit e a primeira eleição de Trump, que percebeu que, afinal, tinha criado um monstro…
Eu estava, já há alguns anos, bastante preocupado e incomodado com a convivência fácil da direita com o populismo, com o iliberalismo e até com um certo sectarismo que me habituara a ver na extrema-esquerda. Aliás, fui publicando vários artigos na VISÃO, em que expressava essa preocupação. Só que, nesses artigos, eu descrevia o meu incómodo, mas ainda não conseguia entender o porquê daquilo que estava a acontecer, não só em Portugal, mas no Ocidente. Como, profissionalmente, trabalho no Direito da Inteligência Artificial, nessa busca de explicações ocorreu-me juntar os dois temas e perguntar-me se uma coisa tinha a ver com a outra. Foi aí que, sim, me lembrei do escândalo da Cambridge Analytica.
E aí percebeu que o algoritmo também é manipulador?
Eu resisto à ideia de manipulação, porque ela presume que existe alguém por detrás de um algoritmo, com a deliberada intenção de nos manipular para um caminho ou uma ideia. Na minha opinião, não é isso que acontece.
Não?
O que acontece é que o algoritmo está programado para nos agradar, para nos dar aquilo que nós queremos, aquilo que nos agarra mais. E há uma característica comum naquilo que o algoritmo nos serve: ser algo que nos indigna, que nos choca, que nos faz medo. Para pessoas de um determinado campo político, isso significa que o medo vem do estrangeiro, do diferente, do imigrante, da inovação, da disrupção. Para outro campo político, pode vir dos novos modelos de família, das novas realidades sociais e familiares. E, para outros ainda, pode ser o medo do racismo, da violência policial. Portanto, como os medos variam, eu digo que não há uma pessoa, por detrás, a manipular-nos.
Então o que é que acontece?
Nós é que damos aos algoritmos todos os sinais para que eles continuem a fornecer-nos conteúdo que nos interpela. E esse conteúdo, sim, é que nos conduz a uma certa radicalização. Nós somos agentes passivos, não escolhemos o conteúdo informativo que lemos e que tem uma direção de radicalização e de polarização.
O Martin Baron, que foi diretor do Washington Post, disse que a polarização era um modelo de negócio. Concorda?
Não. Não é a polarização que é um modelo de negócio. O que é um modelo de negócio é o engajamento. Aquilo que as plataformas pretendem é manter-nos agarrados o máximo de tempo possível ao ecrã. Esse é que é o modelo de negócio. Aquilo que nos mantém agarrados, por razões neurológicas dos nossos vieses, é que depois se torna polarizador. Porque nós somos muito tentados a clicar na notícia que confirma aquilo que nós pensamos e que destrata o adversário. E somos muito tentados a carregar num link que diga que o político A humilhou o político B e não somos tão tentados a carregar num link que diga político A debate com político B. E, portanto, sim, há um efeito, que eu identifico no livro, de radicalização e de polarização, mas eu diria…
… Que é um efeito colateral?
É um efeito colateral e que não é desconhecido dos donos das plataformas.
Mas essa não é uma análise demasiado bondosa, em relação aos donos das plataformas? Até porque se estivermos a falar do algoritmo chinês já não existem dúvidas de que ele tem questões ideológicas…
Não é ser bondoso. Eu pretendo é que esta questão seja discutida de uma maneira abrangente. Não quero que uma possível declaração de intenções acerca dos proprietários das plataformas possa contaminar o debate. O problema dos algoritmos é suficientemente grave, independentemente de existir ou não uma manipulação forçada. Portanto, deve levar-nos a refletir sob o ponto de vista da liberdade individual.
Os comentadores na televisão, comparando com o que eram há dez anos, estão hoje muito mais conflituosos, à procura do pequeno vídeo que vai aparecer no TikTok e que vai torná-los mais populares
Porquê?
Quando se fala em regulação, somos tentados a olhar para ela como o Estado a regular, a policiar e a controlar, de alguma forma, o que está a ser dito. E não é aí onde eu coloco o caminho de solução, mas antes no da liberdade individual. Ou seja, eu tenho de ter algum controlo sobre um algoritmo que me diz as notícias que eu devo ler e quando. E eu não tenho, neste momento, qualquer poder sobre um algoritmo com o qual eu lido diariamente e que me dá, permanentemente, acesso ao mundo. Ora, isto limita fortemente a minha liberdade individual.
Chegamos ao ponto em que já não temos consciência da nossa falta de liberdade. É esse o problema?
É isso que procuro mostrar no livro, que está escrito sempre em diálogo com alguém que não concorda comigo. Há pessoas que dizem: “Eu só carrego onde quero e, portanto, tenho capacidade de controlar a informação.” Isso é uma ilusão. É como ter um GPS que nos guia sempre por ruas muito movimentadas, cheias de restaurantes e de comércio. Assim, chegamos ao final do dia com a ideia de que esta é uma cidade vibrante. Ao mesmo tempo, outra pessoa que o GPS guia por ruas sombrias, becos escondidos e sem luz, vai ter uma imagem completamente diferente da mesma cidade. Isto é o que se passa todos os dias nos nossos feeds, nos nossos murais. Se nos dissessem que era o Estado que, todos os dias, escolhia as notícias que eu lia, as que eu não ia ver nunca, as que eu ia ver primeiro, a que horas e por que ordem, nós iríamos considerar que estávamos perante censura e sem liberdade individual. Mas é exatamente isso que se passa com as redes sociais e com o algoritmo.
Mas o certo é que estamos a ser controlados por empresas que são quase pequenos Estados, não é?
Nesta realidade, todos os agentes, de jornalistas e comentadores a políticos, se adaptam aos algoritmos, porque todos precisam de ser ouvidos. Por isso, jornais que não são tabloides passaram a utilizar títulos que possam passar pelo filtro do algoritmo: títulos mais pesados, mais radicais, mais conflituais, mais bélicos. Os comentadores na televisão, comparando com o que eram há dez anos, estão hoje muito mais conflituosos, à procura do pequeno vídeo que vai aparecer no TikTok e que vai torná-los mais populares. E os políticos, se querem ser ouvidos, também têm de adaptar a sua mensagem. Este esforço de adaptação faz com que o funcionamento do sistema político esteja condicionado pelo algoritmo. E quando um líder como André Ventura gera muitas audiências, então é normal que televisões e jornais passem a vida a entrevistá-lo, porque sabem que podem vender mais jornais ou ter mais espectadores. Isto é um círculo vicioso. Mas agora esqueci-me da pergunta porque ia a outro ponto. A história de…
… sermos controlados por pequenos Estados.
A partir do momento em que agentes políticos mal-intencionados percebem o funcionamento do sistema algoritmizado, então é-lhes também mais fácil montar campanhas para conseguir os seus intentos. Há vários relatórios da União Europeia que mostram as tentativas de potências estrangeiras de influenciar os resultados das eleições nacionais. É importante que as pessoas percebam que a forma de influenciar as eleições nacionais não é ter um algoritmo a dizer-nos para votar em determinado candidato. São campanhas pensadas para nos tornar mais assustados ou vulneráveis perante alguns temas que, esses, sim, podem ajudar determinadas forças políticas.
Mas aí é que está. Afirma que o algoritmo não é ideológico, mas é usado como arma de combate ideológico?
O que eu quero dizer é que o algoritmo, embora esteja à disposição de todos, favorece mais determinado tipo de ideias. Eu faço uma distinção entre o populismo de esquerda e o populismo de direita, que considero ambos inaceitáveis. O populismo de esquerda foca-se muito na culpa. Na culpa de uma sociedade que é racista, que é machista, que é misógina, que é homofóbica e que estruturalmente discrimina. E faz um convite à reflexão de cada um de nós, sobre o que temos de mudar para a melhorar. O populismo de direita assenta mais no medo. O medo do outro, do diferente, da tecnologia, da disrupção, de estarmos a perder valores que são essenciais. O que acontece é que, na linguagem algorítmica, um artigo sobre o medo tem mais capacidade de viralizar do que um artigo sobre a culpa da sociedade.
E porquê?
Porque o medo ativa o nosso sentido de sobrevivência. E é isto que explica que o populismo de direita tenha bastante mais êxito na era algorítmica do que o populismo de esquerda. Embora haja exceções. Um exemplo paradigmático é o do presidente do governo espanhol, Pedro Sánchez, que utiliza a mentira e a legitima com o medo do Vox, o partido populista. Na prática, ele serve-se do medo do Vox para poder mentir.
Essa é uma técnica de propaganda antiga. Mário Soares, em 1986, também fez campanha contra Freitas do Amaral a apelar ao medo do regresso do fascismo…
Mas agora há uma grande diferença, além da velocidade e da escala que a internet permite: os algoritmos favorecem a criação de bolhas, onde o desmentido não entra ou, quando entra, é visto como um ataque do sistema ao visado. Por isso, pode acontecer que uma mentira descarada e já desmentida persista na bolha como se fosse uma verdade. Isto é diferente do tempo em que havia vários jornais, uns mais à esquerda, outros mais à direita, mas em que existia uma realidade partilhada, em que ambos se confrontavam e ambos se acusavam. Hoje é muito diferente, deixámos de ter realidades partilhadas. E isso criou outro dos grandes problemas que enfrentamos: a degradação da ideia de verdade e de facto.
E perdeu-se também a sensatez…
Houve um artigo que escrevi na VISÃO, e que eu recupero o título para o livro, chamado Os Moderados São os Novos Apátridas. E, de facto, a linguagem dos moderados não casa bem com o algoritmo. O algoritmo não vê grande interesse em promover mensagens de concórdia, mensagens consensuais, sem grandes ataques – nada disso tem capacidade de viralizar. Na verdade, o algoritmo não tem intenções, não diz: “Eu vou deliberadamente apagar o artigo do Adolfo.” Ele apenas reage àquilo que gera ou não gera cliques. É por isso que ele está a contribuir para a degradação da ciência. Entre uma notícia ou um link com um título que diga “Vacinas podem criar cancro” ou um título que diga “Estudo mostra que 0,5% das vezes pode haver efeito secundário de cancro nas vacinas”, o algoritmo, de forma natural e orgânica, vai promover o primeiro artigo. E isso é toda uma mudança de perceção. É preocupante como, hoje, a palavra de um cientista e de um médico pode valer menos para o algoritmo do que a de um influencer que promove conhecimento anticientífico. Muito daquilo que hoje estamos a ver de regressão na saúde, nomeadamente em relação às vacinas, vem sempre com a frase: “Eu fui informar-me”, “Eu li na internet que…”
Isso é preocupante…
É preocupante, mas é também deliberado. Quando Donald Trump dá tanto gás ao movimento antivacinas – e ele nunca sugeriu que as pessoas não se vacinassem, e ele vacinou-se –, ele não está interessado na questão das vacinas, ele está interessado em algo maior: degradar a ciência.
Porquê?
Porque a ciência é um filtro. A ciência filtra o que é verdade e o que é mentira ou o que é plausível ou implausível. E esse filtro não interessa a um populista que quer poder contar todas as mentiras. Quanto mais desacreditados estiverem a ciência, os tribunais, os políticos, os jornalistas, mais espaço haverá para que as pessoas passem a acreditar naquilo que lhes diga o líder afetivo que escolheram. A verdade, hoje, deixou de ser uma questão de prova ou de demonstração, para se tornar uma convicção – eu acredito naquele líder porque ele fala convictamente. E isto é perigoso.
Perigoso até porque alimenta a bolha para a qual ele fala. Mas será que os populistas vão conseguir reunir todas as bolhas à sua volta?
Na oposição, isso é possível. Porque quando o discurso é antissistema, cada bolha vê no sistema aquilo que entende. É possível que uns vejam a elite, os grandes empresários e o capital, que outros vejam a degenerescência ética e moral, que outros vejam os privilegiados imigrantes. Portanto, sim, as bolhas podem agrupar-se e é possível sentir e ter o apoio de várias bolhas contraditórias, quando estão todas contra qualquer coisa. O ressentimento é a arma política mais forte e o algoritmo é muito forte a promovê-lo.
Quais são os efeitos das bolhas?
As bolhas têm socialmente vários efeitos. A falta de empatia é um deles. Se eu todos os dias vir títulos que me sugerem que os professores ensinam miúdos de 4 anos a ser homossexuais, é natural que, passados vários meses a ver essas notícias, eu ganhe a perceção de que a escola está a doutrinar as crianças. E se eu nunca vir vídeos sobre miúdos de 10, 13, 15 anos a contar os dramas da afirmação da sua orientação sexual e da violência que sofrem, eu não vou sequer ter capacidade de ter empatia e ver o outro lado da questão. Isto é o que as bolhas fazem. Mas há algo mais nas bolhas: dentro delas, as pessoas têm apenas contacto com a versão mais caricatural da outra bolha, do adversário. Uma pergunta que eu faço sistematicamente é esta: quando é que foi a última vez que ouviu coisas sensatas do partido de que não gosta? E a resposta é: não ouço. Mas há muitos políticos, de direita e de esquerda, a dizerem coisas muito sensatas. Só que não são ouvidos por quem está na outra bolha.
Não é um dado adquirido nem está na agenda do debate político que os algoritmos estão a contaminar o panorama político, a influenciá-lo, a radicalizar e a polarizar
O consenso é outra das principais vítimas do algoritmo?
Nós esquecemo-nos de que várias regras da democracia presumem que eu reconheça legitimidade ao outro: que eu aceite que o outro ganhou e que eu aceite, quando ganho, que o que perdeu tem de ser respeitado. O episódio da invasão do Capitólio, a recusa de Donald Trump em aceitar o resultado das eleições que perdeu, é paradigmático deste tempo. Aquelas pessoas, apesar de saberem que Trump tinha perdido, preferem fingir que acreditam numa mentira, preferem deitar por terra uma regra escrita da democracia, que é aceitar os resultados eleitorais, porque já foram tão doutrinadas de que o outro lado é tão maléfico, que se for preciso que a democracia caia, então a democracia tem de cair. Acho que os algoritmos não explicam porque é que os populistas ganham, mas seria profundamente ingénuo pensar que não têm uma grande influência.
Também ajuda o discurso político ser hoje muito baseado nas perceções?
Há uma grande dificuldade que os políticos têm atualmente: se há perceções enraizadas na sociedade, como é que eles devem lidar com elas? O que é que se deve fazer quando as perceções são demonstradamente erradas ou desproporcionais?
Deve-se responder como?
Deve-se responder com verdade. Não podemos esquecer que aquelas pessoas têm essa sensação e que, para elas, é muito real. Na bolha delas, todos os dias lhes aparecem conteúdos que reforçam essa perceção. Só que a função de um líder não é apascentar e dizer que sim a tudo o que o seu eleitorado quer. Grandes líderes da nossa História, como Mário Soares, Pedro Passos Coelho, Margaret Thatcher, foram líderes que não se preocuparam com a popularidade das suas ideias – preocuparam-se com o projeto que tinham para o país. Sofreram e pagaram por isso, mas têm hoje um lugar na História, gostando-se ou não de uns ou de outros. Quando se tenta dizer que um líder forte é aquele que se sintoniza com as perceções do povo, estamos no caminho errado. Isso é a mesma coisa que um médico deixar a doença espalhar-se para ficar solidário com o doente, em vez de a tratar. Portanto, eu sou muito crítico desta desistência, de dizer: “Se a perceção está criada, temos de fingir que ela é a verdade.”
E, com isso, muitas vezes alimentá-la…
Sendo que há políticos que não querem resolver os problemas de que falam. Para eles, quanto maior for a perceção do problema, melhor. Portanto, vão manter o problema vivo durante o máximo de tempo possível para poderem ganhar eleições. Mas, atenção, não quero dizer que exista hoje uma degenerescência nos políticos, como se os de antigamente fossem santos. O que se passa é que o espaço para mentir e passar incólume pela mentira abriu-se brutalmente. Deu, há pouco, o exemplo da campanha de Mário Soares contra Freitas do Amaral. Com os algoritmos, hoje, seria possível fazer até muito mais e com muito menos críticas. Quando dizem que os políticos sempre mentiram e que são todos iguais, eu respondo: a diferença é que o ecossistema informativo atual favorece a mentira e a descontextualização.
Estamos a assistir à degradação do debate público?
Tudo fica pior quando, somado aos algoritmos, temos a Inteligência Artificial a dar a possibilidade de criar conteúdos totalmente falsos. Estamos a perder a capacidade de identificar o que é verdade e o que é mentira. E quando essa capacidade se perde, como temos necessidade de nos agarrar a referências, acabamos por nos agarrar às referências emocionais, ao líder que emocionalmente mais nos atrai. A Hannah Arendt, quando fala das origens do totalitarismo, explica que o totalitarista não pretende que nós acreditemos numa coisa, pretende antes que nós deixemos de acreditar em qualquer coisa.
E passamos a tolerar a mentira?
Deixe-me dar um exemplo, que não tem a ver com política. Hoje, há cada vez mais casos de fraude em que recebemos uma mensagem de um filho a pedir dinheiro. E treinamo-nos para não acreditar nessas mensagens. Dentro de pouco tempo, em vez de uma mensagem escrita, podemos receber uma chamada a simular a voz do nosso filho. Como estamos avisados e treinados, sentimo-nos seguros porque já sabemos que aquilo, provavelmente, é mentira e não vamos cair na fraude. Mas a minha pergunta é: e se for verdade? E se for mesmo o meu filho, a meio da noite, a pedir-me ajuda, e eu desligar e rir-me para o lado a dizer: “Mais um que achava que me enganava.” Este é um exemplo paradigmático do perigo que existe quando deixamos de distinguir o que é verdade do que é mentira.
E quais são as soluções? É contra a regulação?
O mais importante, desde já, é termos uma conversa séria sobre o assunto e reconhecer que existe um problema. Não é um dado adquirido nem está na agenda do debate político que os algoritmos estão a contaminar o panorama político, a influenciá-lo, a radicalizar e a polarizar. Por isso, pergunto: para que é que servem as leis e a regulação? Para resolver problemas. Aquilo que eu defendo é isto: não é possível continuar a aceitar que exista algo com um poder tão avassalador na nossa vida, sem que nós, enquanto cidadãos, tenhamos qualquer controlo sobre ele.
Mas há quem diga que não é possível regular o algoritmo…
Eu não posso aceitar que nos digam, todos os dias, que vamos descobrir a cura para o cancro graças à Inteligência Artificial e depois nos avisem que não é tecnologicamente possível encontrar uma forma de eu poder dizer ao meu algoritmo o que é que eu quero dele e como é que eu espero que ele me dê notícias e conteúdos. Isto é o mínimo que se pode esperar de uma regulação que respeite a liberdade individual. Há depois toda uma outra discussão, pela qual eu não entro no livro, embora fale dela, sobre os neurodireitos. Sobre até onde podemos preservar a nossa liberdade de pensamento. Até onde podemos dizer que o algoritmo não deve condicionar-nos.
Mas isso seria outro livro…
… e eu tinha de acabar este. Mas acho que é também importante continuar a trabalhar com as plataformas, reconhecendo que os atos eleitorais são profundamente influenciados por elas. Tem de haver compromissos de regra. Que, aliás, quando aconteceu o episódio do assalto ao Capitólio, houve um momento em que as plataformas deixaram de publicar conteúdo sobre o assunto.
A forma de influenciar as eleições não é ter um algoritmo a dizer-nospara votarem determinado candidato. São campanhas pensadas para nos tornar mais assustados ou vulneráveis perante alguns temas que, esses, sim, podem ajudar determinadas forças políticas
Isso foi há cinco anos…
É verdade. Mas mostra duas coisas: que é possível e que a lei deve sobrepor-se. Nós não podemos ter uma realidade hiper-regulada – como é a realidade física e onde eu sou um defensor firme de desregulação – e depois termos uma outra realidade, que é a digital, que tem uma capacidade de influência brutal e onde não existe qualquer tipo de regulação.
E como é que se vai regular plataformas que são detidas pelas pessoas mais poderosas do planeta?
Um dos propósitos do livro é trazer o tema para discussão. Eu não tenho soluções, até porque estamos a falar de algo que é completamente disruptivo e novo. Para mim, o mais importante é lançar o debate para se poder encontrar perspetivas de solução.
Este é um livro para agitar pensamentos?
Ele é, assumidamente, um manifesto político para persuadir as pessoas de que temos um problema. Eu não preciso que as pessoas concordem com as minhas soluções, preciso é que concordem que existe um problema e que temos de ter uma conversa séria sobre ele, se queremos preservar a democracia liberal.
Mas este é um problema que afeta sobretudo as democracias ocidentais…
Democracias liberais. Há pouco, referiu a China, onde os problemas são outros. Aí não está em perigo a democracia liberal, mas o incremento da capacidade do Estado para condicionar as liberdades individuais. O problema é que, tipicamente, olhávamos para as empresas tecnológicas dos EUA como guardiãs de um clima de liberdade. Mas o poder, neste momento, é de tal forma que, quando Elon Musk é dono de uma plataforma – privada, mas que exerce funções de espaço público –, já nos questionamos sobre se o algoritmo, que organicamente, só por si, já nos radicaliza, pode estar já mesmo a ser específica e deliberadamente criado para nos levar para um determinado conteúdo político.
Na sua opinião, o problema principal não é o mau uso do algoritmo?
É o sistema. Dizem-me, muitas vezes, que a sociedade está a passar por uma fase mais conflituosa, de maior polarização. O que eu tento dizer é que isto não é uma fase, é o resultado de um ecossistema, que está preparado, organicamente, para intensificar essa mesma polarização.
Faz parte da sua natureza…
Por isso é que eu insisto nesta ideia, que não há ninguém a manipular, mas que o problema continua a existir, porque o algoritmo nos condiciona as escolhas e os comportamentos. Aliás, quando sabemos quem é que está a manipular-nos, podemos agir e tentar atuar contra ele. Neste caso, mesmo se eu quiser ir bater à porta e dizer: “Não me condicione”… eu não tenho onde bater.
O Yuval Noah Harari acha que o que se deve mesmo fazer é penalizar a parte aditiva do algoritmo, como já se faz com a publicidade. Concorda?
A sociedade organizou-se para, quando reconhece fenómenos aditivos, considerar que eles limitam as nossas liberdades individuais. Quando eu estou viciado em droga, mesmo que eu queira continuar a consumir, a sociedade entende que essa minha decisão é tomada já com pouca liberdade. Eu estou tão viciado que já perdi a capacidade de dizer que não. A mesma coisa se passa com o jogo, com o álcool, com o tabaco… E por isso a analogia do Harari é correta: temos de tratar deste conteúdo aditivo da mesma forma como tratamos todos os outros. Mas para isso é preciso que cada um de nós reconheça que boa parte do que fez foi condicionado. E esse é um passo que muita gente não está disponível para dar. Quando as crianças ficam viciadas no telemóvel, não é porque elas são tontas. É porque aquilo está preparado para as agarrar – a elas e aos pais.
Pensávamos que quando todos tivessem acesso a informação, iríamos ser mais espertos, inteligentes e conhecedores. Enganámo-nos?
Eu falo no livro muito disso, porque me preocupa a forma como hoje desacreditamos a ciência, com enorme facilidade. Quando não gostamos daquilo que ela nos diz, vamos procurar alguém que disse o contrário. É um retrocesso. E é por isso que voltamos a ter surtos de doenças que estavam erradicadas, apenas porque os pais foram informar-se na internet e passaram a saber que há uma conspiração nas vacinas… É muito preocupante.
Ainda tem algum otimismo?
Eu sou otimista por natureza. Mas o meu otimismo está limitado à circunstância de achar que ainda vamos a tempo de fazer alguma coisa. Se não chegarmos a tempo, estaremos a entrar num outro regime, uma algoritmocracia, que ainda não conhecemos bem.
O que é que teme mais nessa algoritmocracia?
A perda da liberdade individual. A mitigação da minha liberdade de pensamento. De deixar de ser um agente ativo na busca de conhecimento, para formar uma opinião, para passar a ser um agente passivo, que responde apenas a uma realidade que me é dada, ignorando por completo tudo o resto. Eu digo muitas vezes que um dos ensinamentos que uma família como a minha, que vai do MRPP ao CDS, me deu é que o mundo não acaba no último prédio da nossa rua. E eu tenho medo de perder isso, porque o meu algoritmo pode apenas dar-me uma única rua.