Imagine que você entrou em uma máquina do tempo e está de volta a 2004. Naquele ano, o computador mais moderno e cobiçado era o Apple iMAC G5, e a medida de segurança mais recente, o gateway de e-mail seguro (SEG). Vale lembrar que os SEGs foram desenvolvidos inicialmente como uma ferramenta defensiva de perímetro que protegia os sistemas de e-mail, examinando mensagens enviadas e recebidas para conter ameaças. 

Nos últimos 20 anos, os avanços tecnológicos em hardware e dispositivos são inegáveis, representando um grande salto em relação aos endpoints do passado. Pouco se fala, no entanto, da evolução do cibercrime ao longo desse período. Medidas de proteção que outrora eram eficazes – como os próprios SEGs – já não são páreo para os ataques baseados em inteligência artificial (IA)

Nesse sentido, os provedores de serviços gerenciados (MSP) enfrentam desafios sem precedentes para proteger as caixas de entrada dos seus clientes e suas ferramentas de produtividade contra as ameaças de IA. 

👉🏽 A abordagem mais comum para escalar ataques de phishing é explorar ferramentas generativas de IA, tais como o Chat GPT e o Google Gemini (antigo “Google Bard”). 

Entretanto, há também estratégias insuspeitas utilizadas pelos cibercriminosos quando o assunto é IA – e elas devem ser conhecidas pelos MSPs. Se os adversários estão escalando tanto métodos comuns de phishing, quanto táticas menos populares para ganhar terreno, os provedores de serviço e clientes devem entender os dois lados da mesma moeda para reforçar a ciberproteção. 

A seguir, confira 4 táticas (das mais comuns às mais raras) listadas pelo Diretor Sênior de Tecnologia da Acronis, Alexander Ivanyuk! 

As 4 principais ameaças de IA + Phishing 

1. Ataque comum: phishing alimentado por IA, malware adaptável e serviços maliciosos de IA 

O phishing alimentado por IA é um dos métodos mais conhecidos e utilizados pelos cibercriminosos. O uso indevido de ferramentas de IA generativa e processamento de linguagem natural (PNL) ajuda na criação de mensagens que simulam o tom, estilo e vocabulário de indivíduos reais

De fato, o método empoderou os cibercriminosos ao libertá-los de mensagens antinaturais e mecanizadas, aumentando as chances de enganar as vítimas. 

👉🏽 Serviços maliciosos de IA, como o WormGPT e o FraudGPT, são pioneiros na composição de mensagens que ajudam os hackers novatos a escrever e-mails convincentes e  gramaticalmente perfeitos.

Os cibercriminosos, porém, estão levando os ataques baseados em IA a uma direção ainda mais sofisticada: geração de malware. O ChatGPT e outras ferramentas de chatbot podem ser induzidas a criar malware, revelar informações ou performar ações antiéticas. 

“O desenvolvimento de malware não exige mais uma imensa habilidade de codificação e proficiência, e o mesmo pode ser dito das ferramentas de IA”, afirma Ivanyuk. “Na verdade, os comandos de desbloqueio do ChatGPT estão facilmente disponíveis e compartilhados em toda a internet”. 

Em resposta, as companhias de IA generativa implementaram barreiras para impedir os hackers de gerar malware com comandos simples, a exemplo de “gerar código de malware”. Porém, os cibercriminosos estão se aproveitando de brechas para contornar essas restrições expressas. Ao conhecer o tipo das operações e as atividades maliciosas em ambientes específicos, os hackers podem elaborar comandos que ultrapassem as barreiras das empresas e criar códigos específicos que podem ser usados em malware. 

“Sem contexto, o código por si só é interpretado como ‘benigno’ pelas soluções de detecção e pelas autoridades, mas na verdade ele é um componente de malware”, explica Ivanyuk. 

Elevando o nível dos ataques, a IA habilita os hackers a desenvolverem malware adaptável que pode fugir da detecção baseada em comportamento. Por exemplo: o cibercriminoso informa um código malicioso para uma ferramenta de IA generativa e solicita uma ligeira modificação desse código, alterando o comportamento do malware.

Essa rápida mudança é suficiente para impedir o reconhecimento do malware modificado como malicioso. 

2. Ataque comum: falsificação com ajuda de deepfake 

Os deepfakes são outro ataque prevalente baseado em IA, com destaque para os serviços do segmento que permitem criar fraudes a baixo custo

O perigo é que os serviços de deepfake (e outras ferramentas de IA) não requerem nenhuma habilidade, são acessíveis para todos e demandam poucos recursos para criar ataques altamente enganosos e eficientes. 

De fato, com um áudio curto ou registro de voz, os deepfakes podem ser criados em minutos. Embora muitas pessoas acreditem no contrário, essas falsificações podem ser elaboradas com quantidades mínimas de dados de voz ou vídeo – e os resultados são indecifráveis.

O phishing baseado em IA, os deepfakes e a geração de malware são os métodos óbvios utilizados pelos cibercriminosos para garantir o mínimo de investimento, habilidades e tempo. 

No entanto, os MSPs e negócios não podem descartar as estratégias mais complexas que os hackers empregam para driblar as ações de cibersegurança. Embora mais raras, essas possibilidades são reais. É o que veremos a seguir! 👇🏽

3. Ataque raro, mas possível: envenenar o treinamento dos modelos de IA 

Nesses ataques, os cibercriminosos “envenenam” dados específicos para sabotar bons modelos de IA e induzi-los a tirar conclusões erradas. Assim, os dados apresentados como “verdadeiros” na verdade são falsos. 

Vale destacar que esse tipo de ameaça exige um certo de grau de experiência e recursos, o que explica sua maior raridade. Na prática, os “dados contaminados” podem ser comprados pelos hackers. 

No mercado da cibersegurança, o envenenamento da IA é uma preocupação crescente para fornecedores que coletam amostras maliciosas na internet para servir como base para as ferramentas de proteção. 

De acordo com Ivanyuk, os hackers estão comprando amostras falsas ou benignas de malware disfarçadas como altamente perigosas, com o objetivo de levar as companhias de segurança a “morder a isca”. Isso acontece porque os fornecedores utilizam amostras semi-maliciosas de malware para embasar suas ferramentas de segurança e reduzir a eficácia dos recursos de detecção. 

 Leia também 👉🏽 O mapa do MSP para a resiliência cibernética 

“As amostras não são altamente maliciosas, mas também não são inofensivas”, afirma Ivanyuk. “Os cibercriminosos desejam destruir as diferenças óbvias entre amostras benignas e malignas para tornar os modelos de IA menos eficientes no reconhecimento de malware e induzir falsos positivos.”

👉🏽 Outro exemplo: sem saber, as empresas de segurança compram conjuntos de dados envenenados. Essas companhias acreditam que os dados são legítimos e que a IA está replicando um bom comportamento. Apesar do aparente funcionamento normal, as entradas de dados estão comprometidas, e o modelo resultante se comporta de um jeito não-intencional ou ineficaz. Dessa forma, em cenários reais, a IA não conseguirá detectar as ciberameaças com sucesso. 

4. Ataque raro, mas possível: ataques diretos em produtos de segurança de IA 

Esses golpes são incomuns, mas realizáveis se o grupo hacker em questão possui fundos. Tais ataques requerem um investimento significativo e habilidades meticulosas para comprometer a infraestrutura do fornecedor, manipular seu modelo de IA e desabilitar uma solução de segurança. 

O mais impressionante sobre os ataques diretos em produtos de segurança de IA é que eles passam despercebidos por um período de tempo, até que os usuários finais da solução reportem falhas de detecção de ameaças ao fornecedor em questão. 

De fato, a única forma de identificar esses golpes é realizar testes independentes e analisar as taxas de detecção. 

Vencendo os ataques baseados em IA com sucesso 🚀

Os provedores de serviço de TI e seus clientes devem se manter vigilantes acerca das táticas aplicadas pelos hackers para explorar ferramentas de IA e serviços em ataques sofisticados. 

Realmente, o uso de IA para criar deepfakes, envenenar modelos de chatbot e atacar diretamente as soluções de segurança reflete o grande avanço do cibercrime nos últimos anos. Mais do que isso, a natureza furtiva desses ataques possibilita que eles passem despercebidos até que os usuários finais reportem falhas de detecção

Garantir a segurança do e-mail e dos aplicativos de colaboração exige reforço em meio aos golpes de phishing habilitados para IA. Apesar dos esforços de treinamentos de conscientização em cibersegurança, adotar soluções avançadas de proteção é essencial para: 

  • Ajudar os técnicos de TI a detectar a origem de ciberameaças;
  • Descobrir parâmetros específicos utilizados em transmissões de e-mail;
  • Fornecer recursos de sandbox e proteção web para garantir que hiperlinks maliciosos sejam detectados antes de chegarem aos destinatários. 

Além disso, é imperativo que MSPs e clientes conduzam testes independentes e a análise contínua das taxas de detecção para revelar quaisquer ataques diretos. Essa abordagem proativa é fundamental para manter defesas robustas contra ciberameaças baseadas em IA e assegurar a integridade das infraestruturas de TI. 

➡️Quer alavancar seu negócio MSP com as melhores e mais atualizadas tecnologias do mercado de cibersegurança? Entre em contato conosco! 

Com informações de: Acronis Blog

Imagem: Freepik

Deixe um comentário