Até há bem pouco tempo, bastava-nos ouvir a voz de alguém ao telefone para termos a certeza de quem estava do outro lado. Hoje, já não é bem assim. Um vídeo convincente de um líder político a afirmar o impensável pode ser criado por Inteligência Artificial (IA) em segundos, abalando as bases sobre as quais costumávamos construir a confiança.
À medida que íamos desenvolvendo uma relação, a confiança ia-se acumulando. Quanto mais interações positivas, maior o saldo. Agora, os sinais a que estamos habituados, incluindo o erro ocasional, deixam de ser garantia. Quando deixarmos de conseguir distinguir máquinas de pessoas, passaremos a confiar nas primeiras como confiamos nas segundas? Ou simplesmente deixaremos de confiar em quem quer que seja?
Sempre que há uma grande mudança tecnológica, atravessamos uma zona cinzenta em que parece que a confiança entrou em crise. Houve uma altura em que os e-mails de phishing (como a famosa herança milionária vinda de um desconhecido num país distante) eram levados a sério por muitos. Com o tempo, aprendemos a verificar remetentes, a olhar para erros ortográficos. Fomos de um extremo de ingenuidade para um extremo de ceticismo.
Hoje, a sensação é semelhante, mas em alta definição. Há uns meses, circulou um vídeo com coelhos a saltar num trampolim, alegadamente “apanhados” por uma câmara. O vídeo tornou-se viral porque quase toda a gente o tomou como uma gravação real. Só mais tarde surgiu a confirmação de que tinha sido gerado por IA.
Quando a verdade vem ao de cima, o pensamento é imediato: se até isto era falso, o que é real? Suspeito que o teste de Turing vai começar a entrar no vocabulário comum (alguns dirão que é tarde demais). As pessoas começarão a partilhar truques sobre como aplicá-lo para descobrir bots disfarçados de humanos, tal como hoje partilhamos dicas para fugir aos golpes digitais mais comuns. Ainda assim, não acredito que a confiança esteja a desaparecer de forma permanente; acredito que está a ser renegociada. Estamos a caminhar para um default de descrença. Em vez de confiarmos automaticamente e verificarmos em caso de dúvida, invertemos o processo. E o preço é a fricção.
Tanto em contexto pessoal como profissional, quando existe quebra de confiança, as pessoas começam a erguer paredes: tornam-se mais defensivas e mais hesitantes em colaborar. À escala social, esta lógica ganha contornos distópicos: perante qualquer nova informação, a reação instintiva passa a ser: “deve ser falso”. Um mundo assim corre o risco de ficar paralisado.
A ironia é que a maior promessa da IA é retirar fricção, automatizando tarefas e antecipando necessidades. Mas, quando se trata da integridade das relações humanas, talvez a solução seja precisamente o oposto: reintroduzir fricção. Isto significa aceitar que há aspetos das relações humanas que não podem ser “otimizados”. A IA pode simular emoções, mas não é capaz de viver plenamente as experiências, nem de sofrer as consequências das suas decisões. É essa responsabilidade que pode, paradoxalmente, reforçar as relações humanas.
A confiança nos grandes espaços digitais tenderá a diminuir, mas tem tudo para se fortalecer em comunidades mais pequenas. Apesar de haver cada vez mais humanóides que já se movem como um humano, ainda vamos conseguir distingui-los durante mais algum tempo no mundo físico, pelo que “desligar” do online é uma excelente opção.
A literacia digital vai tornar-se uma competência social básica e novos paradigmas de confiança terão de surgir. Enquanto sociedade, teremos de aprender a verificar antes de acreditar, e a acreditar antes de partilhar, sob pena de alimentarmos ainda mais desinformação. Por agora, o melhor que podemos fazer é abusar da transparência. Sinalizar quando um conteúdo foi gerado ou manipulado por IA, e explicar como e para quê, deve ser o denominador comum. Não é uma garantia absoluta, mas é um ponto de partida para reconstruir credibilidade.
A médio prazo, podemos ir mais longe e falar de uma espécie de “digitalização da confiança”. Uma das tecnologias que teve recentemente a sua quota-parte de hype, a blockchain, pode ser parte da resposta: através de smart contracts que se executam automaticamente, é possível criar sistemas trustless, em que são as propriedades do próprio sistema a garantir a execução, e não a boa-fé humana. Em vez de presumirmos que o outro é honesto, presumimos que o contrato é executado exatamente como está escrito.
O luto tem cinco fases, descritas no modelo de Kübler-Ross: negação, raiva, negociação, depressão e aceitação. O processo de adaptação à IA não fugirá muito a este roteiro; provavelmente teremos de atravessar estas etapas (idealmente saltando a depressão) até chegarmos à aceitação. Não vamos conseguir eliminar por completo o impacto psicológico e social negativo da IA. Acreditar nisso seria irrealista e, em certa medida, ingénuo. O que podemos fazer é trabalhar para prevenir e mitigar esses efeitos, tanto quanto possível. Historicamente, os humanos sempre manipularam outros humanos. A diferença é que a IA está a escalar esse nível de manipulação, mas os fios da marioneta continuam, pelo menos por agora, nas mãos de pessoas.
A confiança na IA e nos humanos pode coexistir, desde que ajustemos a própria definição de confiança. Não confiamos moralmente no GPS, mas confiamos que nos dá, em condições normais, a melhor rota: não tem motivos para nos indicar deliberadamente a direção errada, a menos que o sistema esteja comprometido. O mesmo pode aplicar-se a sistemas de IA, sobretudo se forem desenhados de forma descentralizada, auditável e fora do controlo exclusivo de grandes empresas com interesses opacos.
No fim do dia, um sistema de IA é apenas matemática muito sofisticada e complexa. E a matemática, por si só, é pura: não tem enviesamentos, não tem agenda, não manipula ninguém. Os agentes de IA não se cansam, não se ofendem, não guardam ressentimentos e podem ser parceiros de produtividade quase perfeitos. Mas a profundidade da confiança que criamos com um humano (alguém que partilha o mesmo contexto, as mesmas pressões, e sente na pele as consequências de uma decisão errada) é de outra natureza.
O desafio dos próximos anos não será escolher entre confiar em humanos ou em máquinas. Será aprender a confiar em ambos, por razões diferentes, sem abdicar da responsabilidade de proteger aquilo que torna a confiança tão difícil de construir e tão fácil de destruir.
Os textos nesta secção refletem a opinião pessoal dos autores. Não representam a VISÃO nem espelham o seu posicionamento editorial.