Vários grupos cibercriminosos estão utilizando o Gemini – assistente de inteligência artificial do Google – para aumentar sua produtividade e levantar potenciais infraestruturas para ataques ou reconhecimento de alvos. 

O chamado “Grupo de Inteligência de Ameaças” (GTIG) do Google detectou grupos de ameaças persistentes avançadas (APTs) associados a órgãos governamentais em ação. O objetivo dos hackers, aqui, é utilizar o Gemini principalmente para ganhos de produtividade nas campanhas cibercriminosas. Não há foco em desenvolver ciberataques baseados em IA para driblar defesas tradicionais. 

Gemini é explorado para ciberataques em mais de 20 países 

Segundo o Google, foram identificados grupos de APT atuando em mais de 20 países, com destaque para China e Irã. 

Entre os casos mais comuns de uso, estão assistência com tarefas de codificação para desenvolvimento de ferramentas e scripts; pesquisa sobre vulnerabilidades divulgadas publicamente; verificação de tecnologias; descoberta de detalhes sobre organizações visadas e busca por métodos para evitar detecção, aumentar privilégios ou executar reconhecimento interno em uma rede comprometida.

Os principais grupos hackers utilizando o Gemini IA 

O Google afirma que grupos de APT do Irã, China, Coreia do Norte e Rússia já fizeram experimentos com o Gemini, explorando o potencial da ferramenta para descobrir lacunas de segurança, fugir à detecção e planejar atividades pós-comprometimento dos sistemas. Confira: 

  • Irã: os hackers do país foram os mais prolíficos no uso do Gemini, aplicando o recurso em uma ampla gama de atividades. Isso inclui reconhecimento de organizações de defesa e experts internacionais, pesquisa de vulnerabilidades conhecidas, desenvolvimento de campanhas de phishing e criação de conteúdo para operações de influência. Eles também usaram o Gemini para tradução e explicações técnicas relacionadas à segurança cibernética e tecnologias militares, incluindo veículos aéreos não tripulados (VANTs) e sistemas de defesa antimísseis.

  • China: aqui, os cibercriminosos utilizaram o Gemini principalmente para reconhecimento de organizações militares e governamentais dos EUA, pesquisa de vulnerabilidades, scripts para movimentação lateral e escalonamento de privilégios e atividades pós-comprometimento, como evasão de detecção e manutenção de persistência em redes. Eles também exploraram maneiras de acessar o Microsoft Exchange usando hashes de senha e ferramentas de segurança de engenharia reversa como Carbon Black EDR.
  • Coreia do Norte: os APTs norte-coreanos usaram o Gemini para dar suporte a várias fases do ciclo de vida do ataque, incluindo pesquisar provedores de hospedagem gratuita, conduzir reconhecimento em organizações-alvo e auxiliar no desenvolvimento de malware e técnicas de evasão. Uma parte significativa de sua atividade se concentrou no esquema clandestino de trabalhadores de TI da Coreia do Norte, usando o Gemini para redigir candidaturas, cartas de apresentação e propostas para garantir emprego em empresas ocidentais sob identidades falsas.
  • Rússia: por sua vez, os agentes de ameaças russos tiveram envolvimento mínimo com o Gemini. A maior parte do uso foi focada em assistência de script, tradução e criação de carga útil. Sua atividade incluiu reescrever malware disponível publicamente em diferentes linguagens de programação, adicionar funcionalidade de criptografia a códigos maliciosos e entender como partes específicas de malware público funcionam. A baixa atividade dos hackers russos pode indicar que esses agentes preferem modelos de IA desenvolvidos na Rússia ou estão evitando plataformas de IA ocidentais por motivos de segurança operacional.

👉 Leia também: DeepSeek sofre ataque hacker em meio à disputa com ChatGPT 

O Google também destaca que observou casos em que os cibercriminosos tentaram usar jailbreaks públicos contra o Gemini ou reformular seus prompts para contornar as medidas de segurança da plataforma. Essas tentativas foram supostamente malsucedidas.

Uso de IA no cibercrime não é novidade 

A OpenAI, criadora do popular ChatGPT, já havia feito uma declaração semelhante em outubro de 2024. Nesse cenário, este alerta do Google vem como uma confirmação do uso indevido em larga escala de ferramentas de IA generativas por agentes de ameaças de todos os níveis.

Embora jailbreaks e bypasses de segurança sejam uma preocupação em produtos de IA convencionais, o mercado de IA está gradualmente se enchendo de modelos de IA que não têm as proteções adequadas para evitar abusos

A empresa de inteligência de segurança cibernética KELA publicou recentemente os detalhes sobre as fracas medidas de segurança para o DeepSeek R1 e o Qwen 2.5 da Alibaba, que são vulneráveis ​​a ataques de injeção de prompt que podem agilizar o uso malicioso.

Os pesquisadores da Unit 42 também demonstraram técnicas eficazes de jailbreaking contra DeepSeek R1 e V3, mostrando que os modelos são fáceis de abusar para fins nefastos.

Com informações de: Bleeping Computer 

Deixe um comentário