A Netskope, líder global em segurança e redes modernas, acaba de divulgar um relatório que revela um crescimento de 30 vezes no envio de dados confidenciais para ferramentas de inteligência artificial generativa (genAI) no último ano. A pesquisa acende um alerta para líderes de tecnologia da informação e segurança corporativa diante da escalada de riscos associados ao uso descontrolado dessas ferramentas.
Entre os dados sensíveis compartilhados estão códigos-fonte, senhas, chaves de acesso e propriedade intelectual, o que pode levar a violação de compliance, prejuízos financeiros e roubo de ativos estratégicos.
Shadow AI: o novo desafio para as equipes de segurança
O relatório destaca a ascensão da shadow AI, fenômeno em que colaboradores usam ferramentas de IA sem o aval da área de segurança. Hoje, 72% dos usuários corporativos acessam aplicações genAI com contas pessoais, sem qualquer visibilidade por parte da TI.
“Apesar dos esforços para implementar ferramentas genAI gerenciadas pela empresa, a nossa pesquisa mostra que a shadow IT se transformou em shadow AI, com quase três quartos dos usuários ainda acessando apps genAI por meio de contas pessoais”, afirma James Robinson, CISO da Netskope. “Essa tendência contínua […] ressalta a necessidade de recursos avançados de segurança de dados”.
Ferramentas como ChatGPT e Gemini estão no dia a dia do usuário corporativo
O Relatório de Ameaças e Nuvem de IA Generativa 2025, desenvolvido pelo Netskope Threat Labs, analisou 317 aplicações genAI utilizadas em ambiente corporativo. Entre os principais exemplos estão ChatGPT, Google Gemini e GitHub Copilot. A pesquisa aponta que 75% dos usuários em empresas acessam soluções com IA generativa regularmente.
“Nossos dados mais recentes mostram que a genAI não é mais uma tecnologia de nicho; ela está em todo lugar”, afirma Ray Canzanese, diretor do Netskope Threat Labs. “Essa onipresença traz um desafio crescente de segurança cibernética e exige que as organizações adotem uma abordagem abrangente no gerenciamento de riscos”.
Empresas apostam em infraestrutura própria de IA – e em novos controles
O estudo aponta também que o número de empresas operando infraestrutura local de IA generativa saltou de menos de 1% para 54% em um ano. A adoção visa reduzir o risco de vazamento em nuvem, mas também traz novos desafios: desde vulnerabilidades na cadeia de suprimentos até problemas como prompt injection e extração de metaprompts.
“Além de estar reformulando a segurança de perímetro e de plataformas, a genAI está reescrevendo as regras”, avalia Ari Giguere, vice-presidente de Segurança e Operações de Inteligência da Netskope. “À medida que os atacantes criam ameaças com precisão generativa, as defesas precisam ser igualmente generativas”.
O que os CISOs estão fazendo para enfrentar o risco da genAI
Segundo a Netskope, praticamente todas as empresas estão criando políticas de controle e bloqueio do uso de IA, ou limitando os dados que podem ser compartilhados com essas plataformas. A recomendação é revisar constantemente o framework de risco de IA e adotar estratégias de mitigação.
Entre as ações práticas sugeridas no relatório:
- Avaliar o ecossistema de genAI: entender quem usa, quais ferramentas e para que fins.
- Reforçar os controles: permitir apenas ferramentas aprovadas e aplicar políticas de DLP.
- Inventariar a infraestrutura local de IA: usar frameworks como OWASP, NIST e MITRE Atlas para garantir conformidade e segurança.
Mais informações podem ser acessadas no Hub de Pesquisa de Ameaças da Netskope. O relatório completo está disponível aqui.