O setor da saúde está adotando rapidamente ferramentas de IA generativa, como ChatGPT e Google Gemini, mas muitas vezes sem o devido controle. É o que revela o mais recente relatório do Netskope Threat Labs, que destaca um crescimento preocupante nas tentativas de envio de informações sensíveis para locais não autorizados, tanto na nuvem quanto na web.
Segundo os dados, 88% das organizações de saúde já utilizam GenAI — muitas com aplicações não regulamentadas. Esse comportamento contribuiu para um cenário em que 81% das violações de política de dados envolvem informações pessoais de pacientes, protegidas por regulamentações locais e internacionais.
“As aplicações GenAI têm muito a oferecer, mas também introduzem novos vetores de risco, principalmente em ambientes críticos como o da saúde”, explica Gianpietro Cutolo, pesquisador da Netskope. “É essencial equilibrar inovação com proteção de dados.”
GenAI acelera produtividade — e riscos
O uso da GenAI por profissionais da saúde é crescente, mas o relatório mostra que mais de dois em cada três usuários ainda utilizam contas pessoais para acessar essas ferramentas no ambiente de trabalho, o que reduz a visibilidade da área de TI sobre o que está sendo compartilhado e com quem.
As violações envolvendo GenAI incluem:
- 44% com dados regulamentados de saúde
- 29% com código-fonte
- 25% com propriedade intelectual
- 2% com senhas e chaves
Além disso, 96% das organizações usam aplicações com acesso aos dados dos usuários para treinamento de modelos — o que eleva ainda mais os riscos de vazamento.
Reações e recomendações de segurança
O relatório aponta uma movimentação das organizações para conter esses riscos. Em um ano, o uso de contas pessoais de GenAI caiu de 87% para 71%, à medida que empresas passaram a adotar aplicações aprovadas e monitoradas. Já a implementação de políticas de Prevenção contra Perda de Dados (DLP) cresceu de 31% para 54%.
Entre as medidas recomendadas pelos especialistas estão:
- Centralizar o uso da GenAI em plataformas autorizadas, com monitoramento e proteção integrados
- Aplicar DLPs rigorosos, restringindo o tipo de dado que pode ser compartilhado
- Implementar alertas em tempo real, como prompts de coaching que avisam os usuários ao detectar ações arriscadas — medida que reduz consideravelmente o envio de dados sensíveis
“O foco em soluções seguras e aprovadas será fundamental para garantir a privacidade e a integridade dos dados clínicos neste novo cenário de uso de IA”, reforça Cutolo.
Privacidade em tempos de IA: equilíbrio urgente
Com a integração da GenAI aos fluxos de trabalho clínico e administrativo, a urgência em proteger os dados de pacientes nunca foi tão alta. O relatório da Netskope mostra que a inovação precisa vir acompanhada de governança, monitoramento e conscientização dos usuários, especialmente em setores que lidam com dados sensíveis por natureza.