A Microsoft revelou as conclusões de uma investigação que mostra que hackers militares russos, da Guarda Revolucionária do Irão e a soldo dos governos da China e da Coreia do Norte estão a aperfeiçoar os seus ataques utilizando grandes modelos de linguagem e soluções da tecnológica.
Tom Burt, vice-presidente da Microsoft, afirmou à Reuters que “independentemente de haver violação da lei ou qualquer violação dos termos de serviço, não queremos estes atores que identificámos – que monitorizarmos e que sabemos serem atores maliciosos de vários tipos – tenham acesso a esta tecnologia”. Do lado dos acusados, apenas a porta-voz da embaixada chinesa reagiu manifestando oposição contra “acusações e difamações sem fundamento contra a China”, enquanto também defendeu o lançamento “seguro, fiável e controlável” da Inteligência Artificial.
Do lado da OpenAI. Bob Rotsted salienta que “esta é uma das primeiras, se não a primeira, instâncias em que uma empresa de IA vem para fora e tenta discutir publicamente como as ameaças à cibersegurança estão a empregar IA atualmente”.
O relatório da Microsoft detalha que os hackers russos usaram os modelos para pesquisar “várias tecnologias de satélite e radar que possam pertencer às operações militares convencionais na Ucrânia”, enquanto na Coreia do Norte e no Irão se usou a IA para criar campanhas convincentes de phishing e escrever emails convincentes para iludir as vítimas. Na China, usou-se a IA para obter mais informações sobre agências de inteligência, temas de cibersegurança e individualidades.
Nem Microsoft, nem OpenAI detalharam quantas contas já foram suspensas ou qual o volume de atividade maliciosa foi registado.