A Forcepoint, empresa global de segurança de dados, divulgou suas previsões para 2026 e destacou três tendências que devem impactar diretamente o cenário de cibersegurança. O avanço da IA agencial, o surgimento de novos vetores de ataque baseados em prompts invisíveis e o crescimento da dívida técnica associada à inteligência artificial aparecem como os principais desafios para as organizações.
As análises fazem parte da série Future Insights 2026, conduzida pela equipe da Forcepoint X-Labs. Segundo o estudo, a atenção do mercado deixa de estar concentrada apenas na IA generativa e passa a considerar os riscos estruturais criados por sistemas cada vez mais autônomos, que exigem menor intervenção humana e ampliam a superfície de ataque.
De acordo com a Forcepoint, a consolidação da IA agencial marca um novo estágio de automação. Esses sistemas são capazes de decidir, agir e aprender continuamente, funcionando como agentes autônomos que acessam dados sensíveis, coordenam tarefas e interagem com outros sistemas corporativos. Esse modelo desafia abordagens tradicionais de segurança, baseadas em comportamento humano previsível e políticas estáticas.
A empresa alerta que a comunicação entre múltiplos agentes autônomos pode gerar efeitos em cadeia, caso um deles seja comprometido. “A autonomia desses agentes pode ser um aliado muito poderoso na agilidade e simplificação de processos, mas a cautela é essencial para garantir que decisões automatizadas não ampliem riscos, vazem dados sensíveis ou escapem dos limites de governança definidos pelas organizações”, afirma Fellipe Canale, AVP LATAM na Forcepoint.
Ataques com prompts invisíveis ganham sofisticação
Outro ponto de atenção é a evolução dos ataques conhecidos como ClickFix, que passam a explorar texto oculto, CSS invisível e caracteres de largura zero para manipular sistemas de IA. Segundo a Forcepoint, essas técnicas afetam especialmente ferramentas como copilotos e sistemas de sumarização usados em ambientes corporativos.
Esse tipo de ataque permite influenciar análises e resumos gerados por IA, inserindo comandos ou links maliciosos que não são visíveis para usuários humanos. Grupos avançados, como APT28 e Lazarus, já estariam utilizando essas abordagens, enquanto malwares auto regenerativos começam a empregar IA para reescrever seus próprios códigos após detecções.
“A defesa agora precisa ir além do que as pessoas veem e clicam, ela precisa proteger o que as máquinas interpretam, entendem e transformam em decisões”, destaca Canale. A Forcepoint aponta ferramentas como DSPM, DLP, CASB e controles de higiene de conteúdo como essenciais nesse novo contexto.
Dívida técnica de IA se torna risco silencioso
O terceiro alerta para 2026 envolve o crescimento da dívida técnica associada a sistemas de IA. Conectores legados, pipelines desatualizados, falhas na descoberta de dados e classificações inconsistentes criam pontos cegos relevantes na governança da informação.
A Forcepoint cita casos recentes envolvendo grandes organizações, como Toyota e Decathlon, além de incidentes relacionados ao Azure Blob Storage, para ilustrar como migrações aceleradas e falta de atualização de componentes podem expor grandes volumes de dados por longos períodos, sem detecção por ferramentas tradicionais.
Segundo a empresa, a combinação de DSPM e DDR será fundamental para recuperar visibilidade, identificar exposições e corrigir posturas de segurança em tempo real. “Sem visibilidade contínua sobre onde os dados estão e como são acessados, a dívida técnica se transforma rapidamente em exposição real”, reforça o executivo.
Segurança passa a proteger decisões das máquinas
Para a Forcepoint, 2026 será marcado por uma mudança no foco da cibersegurança. Além da proteção de dados sensíveis, as organizações precisarão monitorar como as máquinas interpretam informações, processam contextos e tomam decisões de forma autônoma.
Agentes de IA, modelos avançados e pipelines de dados passam a ser simultaneamente ferramentas de produtividade e potenciais vetores de ataque. A recomendação da empresa é investir em governança contínua, automação de descoberta, monitoramento comportamental e arquiteturas mais modulares.
“Proteger dados já não é suficiente; é preciso proteger a lógica, o contexto e o raciocínio das IAs que operam dentro das empresas”, conclui Canale.





