A Inteligência Artificial (IA) surgiu como uma tecnologia transformadora, podendo revolucionar vários setores – incluindo o dominado por agentes maliciosos. Capitalizar as capacidades da IA significa, por exemplo, utilizá-la para lançar rapidamente ciberataques sofisticados, obter um impacto mais amplo devido à disponibilidade 24×7 e formas mais fáceis de contornar as medidas de segurança.
As ferramentas de IA generativa irão desempenhar um papel fundamental na evolução dos ciberataques. Podem ser utilizadas para gerar pedidos maliciosos, nas suas múltiplas formas, e passarão a ter acesso um grupo mais vasto de pessoas. Sendo avançadas, estas ferramentas irão acelerar o processo de investigação para aprender mais sobre um sistema, tecnologia ou propriedade, o que significa que a sua adaptação será mais rápida e serão capazes de produzir mitigações para todos os tipos de defesas que as empresas podem pôr em prática.
Esta mudança de paradigma abre uma nova dimensão de complexidade na defesa contra ciberataques, exigindo às equipas muito mais rapidez e agilidade. Embora não seja claro por agora, será crucial explorar a forma como estas ferramentas podem ser utilizadas no lado defensivo, quer para ajudar os sistemas automatizados a reconhecer padrões nestes ataques, quer para ajudar as organizações a aprender mais rapidamente sobre tecnologias, metodologias e padrões de segurança em geral. É intrigante pensar que, nalguns casos, isto pode facilmente tornar-se numa batalha entre IA e IA, em sistemas que dependem de modelos de IA/Machine Learning, da qual os engenheiros sairão vencedores.
O processamento de grandes quantidades de dados, a análise de padrões e a aprendizagem com a experiência permitiram avanços significativos na cibersegurança. Estes resultados apoiam a deteção de ameaças, a avaliação de vulnerabilidades e a resposta a incidentes, reforçando a postura de segurança das organizações e tornando esta informação uma faca de dois gumes quando nas mãos de agentes maliciosos. Esse é um dos perigos da IA, mas há mais.
A IA adversária é uma técnica em que os modelos de IA são manipulados ou “enganados” para produzir resultados incorretos. Os cibercriminosos podem explorar vulnerabilidades nos algoritmos de IA e lançar ataques para evitar a deteção. Podem, por exemplo, criar conteúdos maliciosos, como imagens ou documentos, que parecem normais ao olho humano, mas que confundem os sistemas de IA, permitindo que o malware contorne as medidas de segurança.
Por outro lado, se os ataques de phishing eram uma ameaça constante no domínio da cibersegurança, a IA ajuda os cibercriminosos a criar e-mails de phishing mais convincentes e personalizados. Ela pode analisar enormes conjuntos de dados sobre potenciais vítimas, elaborando mensagens personalizadas que aumentam as hipóteses de sucesso. As plataformas online não são seguras, uma vez que os chatbots alimentados por IA podem fazer-se passar por humanos de forma convincente, levando a tentativas de engenharia social mais bem-sucedidas.
A IA também pode ser utilizada para automatizar ciberataques a uma escala sem precedentes. Com a utilização da IA, os atacantes podem conseguir mais persistência e controlo sobre os bots. Um ataque DDoS totalmente baseado em IA elimina o elemento humano da equação, o que significa que a origem do ataque será mais difícil de localizar, estará disponível 24 horas por dia, automatizando também tarefas repetitivas, com uma taxa de erro quase inexistente.