Já é uma realidade: hoje, as organizações já estão adotando soluções de IA generativa (GenIA) ou avaliando estratégias para incluir essas tecnologias – ou ambos. Para tomar decisões informadas e planejadas nesse sentido, dispor de dados sólidos é essencial, e ainda assim esses dados são surpreendentemente escassos. 

Visando mudar esse cenário, o relatório “Enterprise GenAI Data Security Report 2025”, da LayerX, traz insights valiosos acerca da aplicação prática de ferramentas de IA no ambiente de trabalho, além de destacar vulnerabilidades críticas. 

O estudo revela, por exemplo, que quase 90% do uso de IA pelas empresas ocorre fora da visibilidade de TI, expondo os negócios a riscos significativos como vazamento de dados e acesso não autorizado. 

A seguir, confira alguns das descobertas mais importantes da pesquisa e se movimente para garantir a proteção de dados relativa à GenIA! 

O uso de GenIA nas empresas é principalmente casual (por enquanto) 

Embora o hype do GenIA faça parecer que toda a força de trabalho migrou suas operações para essa tecnologia, o estudo da LayerX revelou que o uso real é bem menor do que se pensa: cerca de 15% dos usuários acessam as ferramentas de GenIA diariamente.

Ainda assim, a previsão é que essa tendência acelere, principalmente porque 50% dos usuários fazem uso da GenIA quinzenalmente

Além disso, o relatório mostra que 39% dos usuários regulares de ferramentas de IA são desenvolvedores de software, o que significa que o maior potencial de vazamento de dados através do GenAI é de código-fonte.

Como a GenIA está sendo utilizada: quem sabe?

Se as ferramentas de GenIA como o ChatGPT são utilizadas para fins de trabalho, quase 72% dos funcionários as acessam via contas pessoais. E, no caso daqueles que acessam através de contas corporativas, só 12% do acesso é realizado com SSO (autenticação de login único). 

➡️Como resultado, quase 90% do uso de GenIA é invisível para as organizações. Isso torna as empresas cegas para aplicações de “shadow AI” (uso descontrolado ou não autorizado de IA) e o compartilhamento de informações corporativas nessas ferramentas. 

50% das informações “coladas” em GenIA incluem dados corporativos 

Lembra do Princípio de Pareto? Nesse caso, enquanto nem todos os usuários usam GenIA diariamente, aqueles que copiam e colam informações nas aplicações o fazem com frequência e incluem dados potencialmente confidenciais. 

A LayerX descobriu que a colagem de dados corporativos ocorre quase 4 vezes por dia, em média, entre os usuários que enviam dados para as ferramentas de GenIA. Isso pode incluir informações de negócio, dados de clientes, planos financeiros, código-fonte e mais. 

Como planejar para o uso de GenIA: o que as empresas precisam fazer agora? 

As descobertas do relatório sinalizam uma necessidade urgente de novas estratégias de segurança para gerenciar o risco de GenIA. De fato, ferramentas de segurança tradicionais falham ao abordar o ambiente de trabalho moderno guiado por IA, em que as aplicações são baseadas em browsers. Elas não têm a habilidade de detectar, controlar e assegurar interações de IA na sua própria fonte – ou seja, o browser. 

Por sua vez, a segurança baseada em browsers fornece visibilidade de acessos às aplicações de IA em SaaS, recursos desconhecidos muito além de ChatGOT, extensões de browsers habilitadas para IA e mais. Esta visibilidade pode ser utilizada para empregar soluções de DLP para GenIA, permitindo que as empresas incluam a tecnologia em seus planejamentos, assegurando o futuro do negócio. 

➡️Para acessar o relatório completo da LayerX, clique aqui

Com informações de: The Hacker News 

Imagem: Freepik 

Deixe um comentário