A OpenAI, empresa responsável pelo ChatGPT e pesquisas em inteligência artificial, afirmou na última quarta (9) que interrompeu mais de 20 operações e redes fraudulentas ao redor do mundo. Essas campanhas teriam tentado usar a plataforma para propósitos maliciosos desde o começo deste ano.

As atividades da IA envolviam depuração de malware, escrita de artigos para websites, geração de biografias para contas de redes sociais e a criação de fotos de perfil com IA para contas falsas na rede “X”. 

“Os atores de ameaças continuam a evoluir e a experimentar com nossos modelos, mas não vimos evidências de que isso leve a avanços significativos na sua habilidade de criar novos malwares substanciais ou construir audiências virais”, declarou a companhia de inteligência artificial. 

A OpenAI também afirmou que interrompeu atividades que geraram conteúdo de redes sociais relativos às eleições nos EUA, Ruanda e parte da Índia e União Europeia. Segundo a companhia, nenhuma dessas redes atraiu engajamento viral ou audiências sustentáveis. 

Algumas das operações cibernéticas destacadas pela OpenAI são: 

➡️SweetSpecter, um adversário provavelmente baseado na China que utilizou modelos de IA para reconhecimento LLM, pesquisa de vulnerabilidades, suporte de scripts, evasão de detecção de anomalias e desenvolvimento. 

➡️Cyber Av3ngers, um grupo afiliado ao Corpo de Guardas da Revolução Islâmica do Irã (IRGC), que usou os modelos de IA da OpenAI para conduzir pesquisas em controladores lógicos programáveis. 

➡️Storm-0817, um ator de ameaças do Irã que usou seus modelos de IA para depurar um malware Android capaz de coletar informações confidenciais, ferramentas de raspagem perfis do Instagram via Selenium e traduzir perfis do LinkedIn para persa. 

Com informações de: The Hacker News 

Imagem: BoliviaInteligente na Unsplash

Deixe um comentário