“Os comboios logísticos e as Forças Afiliadas de Haftar [HAF no acrónimo em inglês] em retirada foram subsequentemente perseguidos e remotamente atacados por veículos áereos de combate não tripulados ou pelos sistemas de armas autónomas letais como o [drone] STM Kargu-2 e outras munições persistentes. Os sistemas de armas autónomas letais estavam programados para atacar os alvos sem necessidade de uma ligação de dados entre o operador e a munição: uma verdadeira capacidade de ‘dispara, esquece e encontra’”.
Esta é a passagem, em linguagem militar, que diz algo muito simples: pela primeira vez, houve fortes indícios da utilização de uma arma autónoma letal num cenário de combate real. O episódio remonta a 27 de março de 2020 e deu-se durante a guerra civil na Líbia. O relatório da Organização das Nações Unidas (ONU), que destaca o acontecimento, só seria publicado um ano mais tarde, em março deste ano.
O “ou” usado no relatório da ONU não é taxativo quanto à real ação dos drones assassinos. “Na minha interpretação, o relatório das Nações Unidas não providencia informação suficiente para concluir de que foi utilizado”, sublinha Bruno Oliveira Martins, do Instituto de Pesquisa de Paz de Oslo (PRIO no acrónimo em inglês), uma instituição privada especializada em investigações sobre temas de paz e conflitos entre países. No entanto, sublinha, “já foi confirmado que estes drones com capacidade para serem usados de forma totalmente autónoma estão ativos no teatro de operações na Líbia”, diz numa entrevista por telefone à Exame Informática.
Licenciado em direito e com doutoramento na área das relações internacionais, Bruno Oliveira Martins tem-se dedicado aos estudos sobre segurança. Os ataques de drones que os EUA conduziram durante o período de 2012 a 2014 em países com os quais nem sequer estavam em guerra, despertaram-lhe o interesse para a evolução das tecnologias em ambiente de conflito armado.
Um outro episódio conhecido neste ano trouxe à luz os detalhes de uma operação digna de um filme de Hollywood e que mostra o que é possível alcançar quando se combinam avanços tecnológicos militares, Inteligência Artificial e tensão política entre países. O jornal The New York Times revelou numa investigação que Israel terá usado uma metralhadora com Inteligência Artificial (IA) para assassinar o cientista chefe do programa nuclear iraniano. Neste caso, a arma ainda foi controlada por um operador, mas a IA foi usada para compensar a latência da ligação entre a metralhadora (localizada no Irão) e o militar operador (localizado em Israel) – estima-se que havia um atraso de 1,6 segundos entre a transmissão das imagens e a receção das mesmas pelo operador –, o coice dado pela arma a disparar – no total, foram feitos 15 disparos – e a velocidade do carro do alvo, o cientista Mohsen Fakhrizadeh.
“A grande questão está na possibilidade teórica ou não de um sistema baseado exclusivamente em Inteligência Artificial poder tomar decisões relacionadas com uma arma, como o disparo de um tiro ou de um míssil”, sublinha o português elemento do PRIO.
Uma ameaça em ascensão
Os robôs assassinos que existem atualmente desempenham funções que são conhecidas pelo acrónimo ISTAR: Intelligence, Surveillance, Target Acquisition and Reconnaissance (inteligência, vigilância, aquisição de alvo e reconhecimento, em tradução livre). Se há muito que veículos autónomos não tripulados já são usados para fazer reconhecimento do teatro de operações ou para recolher informações de inteligência, a evolução mais recente diz respeito à aquisição de alvo, ou seja, à capacidade de reconhecer, de forma autónoma, potenciais alvos inimigos. E dependendo do algoritmo aplicado, estes sistemas podem reconhecer veículos militares, como tanques ou jipes, como podem ser definidos para reconhecer pessoas, distinguindo um humano no meio de árvores, por exemplo, ou distinguindo um adulto de uma criança.
“Os sistemas mais avançados podem ser equipados com tecnologia de reconhecimento facial, existe identificação de determinada pessoa, cuja cara faz parte de uma determinada base de dados. A tecnologia de reconhecimento facial acoplada a drones é algo que já existe. Tem imensas falhas, imensos problemas, na maior parte das vezes não funciona em cenários operacionais, mas a tecnologia já existe”, detalha Bruno Oliveira Martins.
Tudo o que envolve o conceito de ISTAR é feito de forma totalmente autónoma, mas falta aquele que é considerado como o passo da discórdia – o momento do disparo. “Imaginemos que o robô está preparado, em caso de aquisição do alvo, como um veículo militar supostamente do adversário, está programado para disparar. É isso que acontece do ponto de vista tecnológico”, explica.
O grande debate que tem vindo a ser feito, entre países, organizações e a sociedade no geral, é o papel que o humano deve assumir no processo de utilização de uma arma letal de capacidades autónomas – acompanha meramente o processo ou cabe ao humano a decisão final de tirar uma vida através do robô?
“Na minha opinião deveria ser absolutamente necessário que um humano tivesse a possibilidade de intervir de forma decisiva, seja decidir disparar ou não, seja noutras fases”, defende o especialista.
Isto porque Bruno Oliveira Martins considera que o debate não se deve centrar tanto na linha vermelha – ou seja, no próprio ato de disparar –, mas em todo o conceito de análise e automação das próprias armas. E dá um exemplo que apesar de teórico, ilustra bem quão intrincada é a questão.
“Imaginemos que existe um drone que desempenha aquelas funções de ISTAR e em resultado da análise, que é baseada em Inteligência Artificial, que esse próprio drone faz, apresenta um determinado relatório ao humano, solicitando uma decisão. Depois podemos dizer ‘ao menos é um humano que toma a decisão final’. Aquele relatório, aquela meta-análise, aquela análise baseada exclusivamente em dados que é feita pelos algoritmos que estão implantados no drone, é uma decisão que já é exclusivamente baseada em IA e algoritmos. A decisão final é baseada numa análise, num relatório, num contexto que lhe é apresentado, que já é feito de forma totalmente automática e autónoma. Sabemos que isto é altamente problemático e falível, os algoritmos são programados – são engenheiros, são seres humanos que fazem os algoritmos e a programação. Essas pessoas transportam para o algoritmo todos os preconceitos, todo o sistema de valores que existe na sociedade: preconceitos raciais e preconceitos religiosos”.
Ou seja, se a decisão se centrar apenas no ‘disparo’, Bruno Oliveira Martins acredita que serão negligenciados “aspetos complexos e problemáticos”.
Portugal entre a espada e a parede
Bruno Oliveira Martins defende que os “robôs autónomos não serão um problema, os robôs armados claramente sim” e não tem dúvidas em dizer que “a utilização de armas totalmente autónomas deveria ser sempre ilegítima, independentemente de a utilização ser ofensiva ou defensiva”.
E este é um tema que deve ser fortemente estigmatizado, sublinha, para que a pressão não venha apenas do lado de alguns países e de instituições como o PRIO, mas também da própria sociedade. Na prática, fazer com os robôs assassinos o que já aconteceu com o debate sobre armas nucleares. “A verdade é que as armas nucleares em conflito foram usadas duas vezes. Por causa de todas as campanhas, o estigma em torno do uso de armas nucleares é imenso. Enquanto que em 1945 foi possível utilizar armas nucleares, hoje a barreira ou o limite para que os EUA voltem a usar armas nucleares é muito maior. Todo o esforço diplomático, político, das sociedades civis, em colocar um estigma altamente negativo nas armas nucleares fez com que a utilização não tenha voltado a ocorrer”.
Daí que considere que seja importante “colocar um estigma nestas armas [autónomas], tentarmos perceber porque a utilização de robôs assassinos é altamente negativa, tentar convencer as pessoas que a transferência para robôs da decisão que implica a morte de pessoas será sempre ilegítima, independentemente da validade ou não da causa”,
E Portugal, mesmo não apoiando diretamente a utilização de armas autónomas, pode acabar por sofrer pressões fruto das alianças militares que o País tem. “Aliados muito próximos de Portugal em questões militares não têm uma posição de total apoio ao bloqueio total a robôs assassinos e isso faz com que Portugal fique entre a espada e a parede”, destaca o elemento do PRIO.
O debate sobre a proibição de robôs assassinos continua, mas justamente no ano em que se perdeu a inocência das armas autónomas e apoiadas por IA, a Organização das Nações Unidas não conseguiu um acordo entre os países para a criação de um tratado internacional que limite ou proíba mesmo a utilização de armas autónomas ou dos chamados robôs assassinos.
Bruno Oliveira Martins não tem dúvidas: “As armas [autónomas letais] já existem, não temos tempo para esperar para ver onde isto vai dar”.