A OpenAI, empresa responsável pelo ChatGPT e pesquisas em inteligência artificial, afirmou na última quarta (9) que interrompeu mais de 20 operações e redes fraudulentas ao redor do mundo. Essas campanhas teriam tentado usar a plataforma para propósitos maliciosos desde o começo deste ano.
As atividades da IA envolviam depuração de malware, escrita de artigos para websites, geração de biografias para contas de redes sociais e a criação de fotos de perfil com IA para contas falsas na rede “X”.
“Os atores de ameaças continuam a evoluir e a experimentar com nossos modelos, mas não vimos evidências de que isso leve a avanços significativos na sua habilidade de criar novos malwares substanciais ou construir audiências virais”, declarou a companhia de inteligência artificial.
A OpenAI também afirmou que interrompeu atividades que geraram conteúdo de redes sociais relativos às eleições nos EUA, Ruanda e parte da Índia e União Europeia. Segundo a companhia, nenhuma dessas redes atraiu engajamento viral ou audiências sustentáveis.
Algumas das operações cibernéticas destacadas pela OpenAI são:
➡️SweetSpecter, um adversário provavelmente baseado na China que utilizou modelos de IA para reconhecimento LLM, pesquisa de vulnerabilidades, suporte de scripts, evasão de detecção de anomalias e desenvolvimento.
➡️Cyber Av3ngers, um grupo afiliado ao Corpo de Guardas da Revolução Islâmica do Irã (IRGC), que usou os modelos de IA da OpenAI para conduzir pesquisas em controladores lógicos programáveis.
➡️Storm-0817, um ator de ameaças do Irã que usou seus modelos de IA para depurar um malware Android capaz de coletar informações confidenciais, ferramentas de raspagem perfis do Instagram via Selenium e traduzir perfis do LinkedIn para persa.
Com informações de: The Hacker News
Imagem: BoliviaInteligente na Unsplash