Setor da saúde em alerta: segundo novo relatório da Netskope, 81% das violações de política de dados do segmento estavam associadas a dados regulamentados no último ano – e isso inclui informações sensíveis (médicas e clínicas) de pacientes. Além disso, código-fonte, senhas ou propriedade intelectual também foram impactados (19% do total).
Aqui, vale destacar que os dados regulamentados são aqueles protegidos por leis locais, nacionais ou internacionais, a exemplo da Lei Geral de Proteção de Dados (LGPD) do Brasil. Informações do segmento da saúde – incluindo histórico de enfermidades e exames – geralmente são consideradas “dados pessoais sensíveis” e demandam uma camada extra de segurança.
Leia também👉🏽 67% das empresas de saúde foram vítimas de ransomware em 2024, revela estudo da Sophos
Uso de ferramentas de GenIA potencializa riscos de exposição
Segundo a análise dos pesquisadores da Netskope, a adoção de ferramentas públicas de IA generativa por profissionais de saúde está alavancando as tentativas de envio de dados confidenciais para locais não aprovados pelo setor de TI, seja na web ou na nuvem.
De fato, o levantamento revela que uma parcela substancial das violações detectadas ocorreu via envio de informações sensíveis para contas pessoais do Google Drive ou do OneDrive da Microsoft.
Quando o assunto são os recursos de IA, o ChatGPT (81%) e o Gemini do Google (59%) são os mais utilizados na área da saúde, estando frequentemente envolvidos nessas exposições de dados.
As descobertas do levantamento da Netskope sugerem que as aplicações de GenIA oferecem soluções inovadoras, mas também introduzem novos vetores para potenciais vazamentos de dados. Nesse cenário, as organizações da área da saúde devem equilibrar os benefícios da IA generativa com a implementação de políticas rigorosas de governança para mitigar os graves riscos associados.
👉🏽Para acessar o relatório completo da Netskope, clique aqui.
Com informações de: Netskope Threat Labs e IT Forum
Imagem: Freepik