A26 de abril de 1986, o reator 4 da central nuclear de Chernobyl explodiu. Mantém-se como o acidente nuclear mais grave, à data de hoje. As estimativas do número de pessoas afetadas e dos valores de contaminação variam, de acordo com a metodologia utilizada, mas estima-se um custo financeiro de 700 mil milhões de dólares.
É também considerado o fator principal do fim da Guerra Fria, do colapso da União Soviética, dos acordos de desarmamento.
O momento em que a comunidade internacional reconheceu o perigo da tecnologia, e se iniciou um esforço de cooperação internacional. Não foi um processo imediato, mas à medida que a consciencialização do impacto do acidente se generalizou, líderes políticos e cidadãos reagiram.
Vivemos um momento pré-Chernobyl na Inteligência Artificial. Multiplicam-se as advertências para os riscos. Não se trata apenas da nossa incapacidade coletiva de lidar socialmente com o impacto. Os riscos para a saúde individual, o impacto no ensino e as ameaças de um futuro sem trabalho intelectual, onde a máquina substituiu a Humanidade na análise, no diagnóstico e na decisão.
Procuramos racionalizar aquilo que percecionamos como uma ameaça fora do nosso controlo, mas tal não diminui o risco.
Teremos também um momento Chernobyl na Inteligência Artificial? Um evento que causando graves prejuízos (esperemos que apenas financeiros…) seja de tal forma grave que se imponha um esforço internacional de cooperação?
Eventos graves têm vindo a acumular-se. Entre dezembro de 2025 e fevereiro de 2026, um ataque cibernético ao Estado mexicano permitiu a um hacker (pelas notícias, parece que se terá tratado de apenas uma pessoa) penetrar nos sistemas informáticos, entre os quais, o sistema da autoridade fiscal, o dos registos eleitorais e civis, o sistema de saúde e o de fornecimento de água. No ataque, o hacker usou os LLMs Claude Code da Anthropic e o ChatGPT-4.1 da OpenAI, para planear e produzir código que permitiu encontrar vulnerabilidades e capturar informação de milhões de cidadãos. O ataque foi descoberto pela Anthropic, mas não foi possível deter o hacker nem recuperar a informação que já havia sido obtida. O custo não são apenas os dados roubados. Será necessário reconstruir sistemas e recuperar a confiança do público.
No início deste mês, a Antrophic divulgou o seu novo LLM de programação Claude Mythos. Dada a enorme capacidade de deteção de falhas nos sistemas informáticos, a Antrophic optou por não disponibilizar o sistema ao público em geral. Criou o Project Glasswing com big techs e um banco (Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, the Linux Foundation, Microsoft, NVIDIA, e Palo Alto Networks), para que possam explorar e corrigir as falhas de segurança dos seus próprios sistemas.
O AI Security Institute (uma instituição governamental britânica que visa avaliar modelos e promover a segurança dos sistemas e da utilização da Inteligência Artificial) já confirmou as capacidades do novo modelo.
Os governos americano e britânico já reuniram com os responsáveis máximos das principais instituições bancárias para discutir riscos e medidas a tomar. Mas o risco não é apenas no setor bancário, abrange a infraestrutura global que suporta a vida em sociedade, dos hospitais ao sistema de defesa, dos impostos às companhias de aviação.
A Antrophic alocou 100 milhões de dólares ao Project Glasswing, uma gota de água nos custos que readaptar sistemas implicará.
Será este o momento Chernobyl da Inteligência Artificial? E qual será a reação? Reféns de uma empresa, que inventou a doença e ora vende a cura? A nacionalização do modelo para com ele promover a segurança das infraestruturas ou utilizar como instrumento de coação? Uma verdadeira cooperação internacional para que a tecnologia sirva a Humanidade? Iremos, certamente, descobrir muito em breve.
Os textos nesta secção refletem a opinião pessoal dos autores. Não representam a VISÃO nem espelham o seu posicionamento editorial.